对话李开复:零一万物融的钱够做预训练,我做toB不会亏钱
对话李开复:零一万物融的钱够做预训练,我做toB不会亏钱刚从美国回来的李开复,想清楚了很多事情,他的大模型公司零一万物也开始发生变化。
刚从美国回来的李开复,想清楚了很多事情,他的大模型公司零一万物也开始发生变化。
零一万物的最新模型,打榜赢了GPT-4o。
随着对现有互联网数据的预训练逐渐成熟,研究的探索空间正由预训练转向后期训练(Post-training),OpenAI o1 的发布正彰显了这一点。
生成性人工智能正从快速预训练响应向慢速深度推理转变,开启自主应用的新篇章。
该研究主要探讨了大语言模型的全局剪枝方法,旨在提高预训练语言模型的效率。该成果的发表为大模型的剪枝与优化研究提供了新的视角,并在相关领域具有重要的应用潜力。
随着大规模语言模型的快速发展,如 GPT、Claude 等,LLM 通过预训练海量的文本数据展现了惊人的语言生成能力。然而,即便如此,LLM 仍然存在生成不当或偏离预期的结果。这种现象在推理过程中尤为突出,常常导致不准确、不符合语境或不合伦理的回答。为了解决这一问题,学术界和工业界提出了一系列对齐(Alignment)技术,旨在优化模型的输出,使其更加符合人类的价值观和期望。
通用机器人模型,目前最大的障碍便是「异构性」。
在医疗领域中,大语言模型已经有了广泛的研究。然而,这些进展主要依赖于英语的基座模型,并受制于缺乏多语言医疗专业数据的限制,导致当前的医疗大模型在处理非英语问题时效果不佳。
GPT-4o 读万卷书,「o1」行万里路。
DeepMind最近的研究提出了一种新框架AligNet,通过模拟人类判断来训练教师模型,并将类人结构迁移到预训练的视觉基础模型中,从而提高模型在多种任务上的表现,增强了模型的泛化性和鲁棒性,为实现更类人的人工智能系统铺平了道路。