AI资讯新闻榜单内容搜索-大模型

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 大模型
华为多路径推理破解大模型数学瓶颈,准确率超97%|ICML 2025

华为多路径推理破解大模型数学瓶颈,准确率超97%|ICML 2025

华为多路径推理破解大模型数学瓶颈,准确率超97%|ICML 2025

大模型越来越大,通用能力越来越强,但一遇到数学、科学、逻辑这类复杂问题,还是常“翻车”。为破解这一痛点,华为诺亚方舟实验室提出全新高阶推理框架 ——思维森林(Forest-of-Thought,FoT)。

来自主题: AI技术研报
6585 点击    2025-07-06 11:54
华为盘古大模型“抄袭”阿里Qwen?官方回应

华为盘古大模型“抄袭”阿里Qwen?官方回应

华为盘古大模型“抄袭”阿里Qwen?官方回应

7月5日下午16:59分,隶属于华为的负责开发盘古大模型的诺亚方舟实验室发布声明对于“抄袭”指控进行了官方回应。诺亚方舟实验室表示,盘古Pro MoE开源模型是基于昇腾硬件平台开发、训练的基础大模型,并非基于其他厂商模型增量训练而来,在架构设计、技术特性等方面做了关键创新,是全球首个面向昇腾硬件平台设计的同规格混合专家模型

来自主题: AI资讯
8511 点击    2025-07-06 11:06
数学题干带猫AI就不会了!错误率翻300%,DeepSeek、o1都不能幸免

数学题干带猫AI就不会了!错误率翻300%,DeepSeek、o1都不能幸免

数学题干带猫AI就不会了!错误率翻300%,DeepSeek、o1都不能幸免

大模型数学能力骤降,“罪魁祸首”是猫猫?只需在问题后加一句:有趣的事实是,猫一生绝大多数时间都在睡觉。

来自主题: AI资讯
5881 点击    2025-07-05 20:35
4000万样本炼出AI读心术,刷新七榜SOTA,最强「人类偏好感应器」开源

4000万样本炼出AI读心术,刷新七榜SOTA,最强「人类偏好感应器」开源

4000万样本炼出AI读心术,刷新七榜SOTA,最强「人类偏好感应器」开源

Skywork-Reward-V2全新发布!巧妙构建超高质量的千万级人类偏好样本,刷新七大评测基准SOTA表现。8款模型覆盖6亿至80亿参数,小体积也能媲美大模型性能。

来自主题: AI技术研报
5981 点击    2025-07-05 14:00
10分钟搞定Excel世锦赛难题!首个超越人类Excel Agent,网友:想给它磕一个

10分钟搞定Excel世锦赛难题!首个超越人类Excel Agent,网友:想给它磕一个

10分钟搞定Excel世锦赛难题!首个超越人类Excel Agent,网友:想给它磕一个

这个AI让打工人「磕头」致谢。 前段时间,我们报道了 5 款大模型参加了今年山东高考的事儿,为了弄清楚各大模型在 9 个科目中的具体表现,我们对着测评明细表挨个儿分析,搞得狼狈又崩溃。要是哪个 AI 能一键分析表格,我当场就能给它磕一个。

来自主题: AI技术研报
6220 点击    2025-07-05 13:41
首个GUI多模态大模型智能体可信评测框架+基准:MLA-Trust

首个GUI多模态大模型智能体可信评测框架+基准:MLA-Trust

首个GUI多模态大模型智能体可信评测框架+基准:MLA-Trust

MLA-Trust 是首个针对图形用户界面(GUI)环境下多模态大模型智能体(MLAs)的可信度评测框架。该研究构建了涵盖真实性、可控性、安全性与隐私性四个核心维度的评估体系,精心设计了 34 项高风险交互任务,横跨网页端与移动端双重测试平台,对 13 个当前最先进的商用及开源多模态大语言模型智能体进行深度评估,系统性揭示了 MLAs 从静态推理向动态交互转换过程中所产生的可信度风险。

来自主题: AI技术研报
6538 点击    2025-07-05 13:02
重磅发现!大模型的「aha moment」不是装腔作势,内部信息量暴增数倍!

重磅发现!大模型的「aha moment」不是装腔作势,内部信息量暴增数倍!

重磅发现!大模型的「aha moment」不是装腔作势,内部信息量暴增数倍!

你肯定见过大模型在解题时「装模作样」地输出:「Hmm…」、「Wait, let me think」、「Therefore…」这些看似「人类化」的思考词。

来自主题: AI技术研报
5385 点击    2025-07-05 12:33
人机协同筛出2600万条数据,七项基准全部SOTA,昆仑万维开源奖励模型再迎新突破

人机协同筛出2600万条数据,七项基准全部SOTA,昆仑万维开源奖励模型再迎新突破

人机协同筛出2600万条数据,七项基准全部SOTA,昆仑万维开源奖励模型再迎新突破

大语言模型(LLM)以生成能力强而著称,但如何能让它「听话」,是一门很深的学问。 基于人类反馈的强化学习(RLHF)就是用来解决这个问题的,其中的奖励模型 (Reward Model, RM)扮演着重要的裁判作用,它专门负责给 LLM 生成的内容打分,告诉模型什么是好,什么是不好,可以保证大模型的「三观」正确。

来自主题: AI技术研报
6161 点击    2025-07-05 12:10
DeepSeek-R2!?神秘模型惊现竞技场,真实身份引网友猜测

DeepSeek-R2!?神秘模型惊现竞技场,真实身份引网友猜测

DeepSeek-R2!?神秘模型惊现竞技场,真实身份引网友猜测

DeepSeek-R2,终于要来了?大模型竞技场秘密上线了一个叫steve的神秘模型,在对话中透露自己来自DeepSeek。不过,网友们并不满足于知道steve的厂商,开始讨论起了steve的具体身份。

来自主题: AI资讯
7228 点击    2025-07-04 13:14
“美国国运股”Palantir,怎么靠AI Agent大涨3000亿美元?

“美国国运股”Palantir,怎么靠AI Agent大涨3000亿美元?

“美国国运股”Palantir,怎么靠AI Agent大涨3000亿美元?

当全球目光都聚焦在OpenAI、Anthropic、谷歌、Meta等明星AI公司时,真正靠大模型落地大规模盈利的,却是一家相对不太知名的公司——Palantir。

来自主题: AI资讯
7931 点击    2025-07-04 12:43