颠覆认知:大模型不可靠,越大越不可靠?最新研究登上 Nature
颠覆认知:大模型不可靠,越大越不可靠?最新研究登上 Nature“通用人工智能(AGI)的设计和开发,需要进行根本性改变。” 人工智能(AI)模型的参数规模越大,生成的答案就越准确?就更加可信? 还真不一定!
来自主题: AI资讯
3024 点击 2024-09-27 10:31
“通用人工智能(AGI)的设计和开发,需要进行根本性改变。” 人工智能(AI)模型的参数规模越大,生成的答案就越准确?就更加可信? 还真不一定!
LLM说起谎来,如今是愈发炉火纯青了。 最近有用户发现,OpenAI o1在思考过程中明确地表示,自己意识到由于政策原因,不能透露内部的思维链。
虽然 RLHF 的初衷是用来控制人工智能(AI),但实际上它可能会帮助 AI 欺骗人类。
不久之前,李飞飞教授的空间智能创业公司 World Labs 以及全明星的创业阵容正式亮相。 随后,李飞飞与另一位联合创始人 Justin Johnson 接受了 a16z 的专访。
OpenAI的self-play RL新模型o1最近交卷,直接引爆了关于对于self-play的讨论。
李飞飞新创企结束隐身
黄仁勋,投了李飞飞
Self-play RL 开启 AGI 下半场
AI教母李飞飞的创业公司World Labs,正式官宣启动!
World Labs 的创始团队中,有 ImageNet、NeRF、Style Transfer 和 Gaussian Splats 作者在列。