放弃明星AI聊天机器人,Meta要做AI伴聊“教父”
放弃明星AI聊天机器人,Meta要做AI伴聊“教父”Meta似乎也已经意识到,当下最好的选择是授人以渔。
Meta似乎也已经意识到,当下最好的选择是授人以渔。
RLHF 与 RL 到底能不能归属为一类,看来大家还是有不一样的看法。
Llama 3.1刚发布不久,Llama 4已完全投入训练中。 这几天,小扎在二季度财报会上称,Meta将用Llama 3的十倍计算量,训练下一代多模态Llama 4,预计在2025年发布。
如今一场席卷人工智能圈的“石油危机”已经出现,几乎每一家AI厂商都在竭力寻求新的语料来源,但再多的数据似乎也填不满AI大模型的胃口。更何况越来越多的内容平台意识到了手中数据的价值,纷纷开始敝帚自珍。为此,“合成数据”也成为了整个AI行业探索的新方向。
大语言模型 (LLM) 是如何解数学题的?是通过模板记忆,还是真的学会了推理思维?
『RAG 高效应用指南』系列将就如何提高 RAG 系统性能进行深入探讨,提供一系列具体的方法和建议。同时读者也需要记住,提高 RAG 系统性能是一个持续的过程,需要不断地评估、优化和迭代。
AGI狂飙的这一年,微软、Meta、Google、Amazon等全球最大的几个科技公司,都在倾力押注。
换了发型的扎克伯格越来越不像机器人了。 这是网友们对扎克伯格最近形象转变的普遍评价,但看顺眼的网友更多是对他旗下 Meta 公司的认可。 时间往回倒退 3 年,当时的「Facebook」或许还指望着改名转运。
最近一段时间开源大模型市场非常热闹,先是苹果开源了70亿参数小模型DCLM,然后是重量级的Meta的Llama 3.1 和Mistral Large 2相继开源,在多项基准测试中Llama 3.1超过了闭源SOTA模型。 不过开源派和闭源派之间的争论并没有停下来的迹象。
Meta、UC伯克利、NYU共同提出元奖励语言模型,给「超级对齐」指条明路:让AI自己当裁判,自我改进对齐,效果秒杀自我奖励模型。