新的大语言模型(LLM)评估基准对于跟上大语言模型的快速发展至关重要。
新的大语言模型(LLM)评估基准对于跟上大语言模型的快速发展至关重要。
北大等出品,首个多模态版o1开源模型来了—— 代号LLaVA-o1,基于Llama-3.2-Vision模型打造,超越传统思维链提示,实现自主“慢思考”推理。 在多模态推理基准测试中,LLaVA-o1超越其基础模型8.9%,并在性能上超越了一众开闭源模型。
Open AI作为AI时代的科技先锋,每一个动向都备受关注。但是吃多了“网红化”带来的流量红利,Open AI似乎很难像学者一样老实待在实验室了。
自我纠错(Self Correction)能力,传统上被视为人类特有的特征,正越来越多地在人工智能领域,尤其是大型语言模型(LLMs)中得到广泛应用,最近爆火的OpenAI o1模型[1]和Reflection 70B模型[2]都采取了自我纠正的方法。
多智能体系统,可自动化整个 ML 工作流程,节省数千小时工时。
鲨疯了!谷歌新版Gemini超越o1,强势登顶竞技场总榜第一! 在经6000+网友匿名投票后,不仅数学成绩和学霸o1相当,还拿下其它5个单项第一。
大模型的具身智能决策能力,终于有系统的通用评估基准了。
o1不是通向大模型推理的唯一路径! MIT的新研究发现,在测试时对大模型进行训练,可以让推理水平大幅提升。
让大模型集体吃瘪,数学题正确率通通不到2%!
OpenAI o1风格的推理大模型,有行业垂直版了。HK-O1aw,是由香港生成式人工智能研发中心(HKGAI)旗下AI for Reasoning团队(HKAIR) 联合北京大学对齐团队(PKU-Alignment Team)推出的全球首个慢思考范式法律推理大模型。