颠覆认知:大模型不可靠,越大越不可靠?最新研究登上 Nature
颠覆认知:大模型不可靠,越大越不可靠?最新研究登上 Nature“通用人工智能(AGI)的设计和开发,需要进行根本性改变。” 人工智能(AI)模型的参数规模越大,生成的答案就越准确?就更加可信? 还真不一定!
来自主题: AI资讯
4087 点击 2024-09-27 10:31
“通用人工智能(AGI)的设计和开发,需要进行根本性改变。” 人工智能(AI)模型的参数规模越大,生成的答案就越准确?就更加可信? 还真不一定!
随OpenAI爆火的CoT,已经引发了大佬间的激战!谷歌DeepMind首席科学家Denny Zhou拿出一篇ICLR 2024论文称:CoT可以让Transformer推理无极限。但随即他就遭到了田渊栋和LeCun等的质疑。最终,CoT会是通往AGI的正确路径吗?
数月前,一张OpenAI内部的图片在网上流传。图中,OpenAI将自己通往AGI的道路分为了五个阶段
科技企业家Elad Gil强调,将AI作为产品核心需要时间,初期产品往往只是基础功能,而真正的价值在于深入理解AI技术并将其融入产品体验的核心。
人们对新技术革命,往往短期高估,长期低估
行业内认为AGI发展加速,o1模型表现突出。
Self-play RL 开启 AGI 下半场
大模型下半场,新范式开启?
就在刚刚,OpenAI最强的o1系列模型忽然上线。毫无预警地,OpenAI就扔出这一声炸雷。传说中两周内就要上线的草莓模型,居然两天内就来了!
Ilya 看到了什么?AGI 真的近了。