AI资讯新闻榜单内容搜索-LLM

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: LLM
LLM首次达到人类语言专家水平!OpenAI o1拿下拆解句法、识别歧义、推理音律

LLM首次达到人类语言专家水平!OpenAI o1拿下拆解句法、识别歧义、推理音律

LLM首次达到人类语言专家水平!OpenAI o1拿下拆解句法、识别歧义、推理音律

这说明o1不仅能够使用语言,还能够思考语言,具备元语言能力(metalinguistic capacity )。由于语言模型只是在预测句子中的下一个单词,人对语言的深层理解在质上有所不同。因此,一些语言学家表示,大模型实际上并没有在处理语言。

来自主题: AI技术研报
8444 点击    2025-11-08 15:51
谷歌AlphaEvolve太香了,陶哲轩甚至发了篇论文,启发数学新构造

谷歌AlphaEvolve太香了,陶哲轩甚至发了篇论文,启发数学新构造

谷歌AlphaEvolve太香了,陶哲轩甚至发了篇论文,启发数学新构造

著名数学家陶哲轩发论文了,除了陶大神,论文作者还包括 Google DeepMind 高级研究工程师 BOGDAN GEORGIEV 等人。论文展示了 AlphaEvolve 如何作为一种工具,自主发现新的数学构造,并推动人们对长期未解数学难题的理解。AlphaEvolve 是谷歌在今年 5 月发布的一项研究,一个由 LLMs 驱动的革命性进化编码智能体。

来自主题: AI资讯
8271 点击    2025-11-07 15:25
自回归科学基座模型 BigBang-Proton,提出实现 AGI 的新路线

自回归科学基座模型 BigBang-Proton,提出实现 AGI 的新路线

自回归科学基座模型 BigBang-Proton,提出实现 AGI 的新路线

近日,专注于研发物质世界基座模型的公司超越对称(上海)技术有限公司(超对称)发布了新版基座模型 BigBang-Proton,成功实现多个真实世界的专业学科问题与 LLM 的统一预训练和推理,挑战了 Sam Altman 和主流的 AGI 技术路线。

来自主题: AI技术研报
8715 点击    2025-11-07 15:03
在失败中进化?UIUC联合斯坦福、AMD实现智能体「从错误中成长」

在失败中进化?UIUC联合斯坦福、AMD实现智能体「从错误中成长」

在失败中进化?UIUC联合斯坦福、AMD实现智能体「从错误中成长」

伊利诺伊大学厄巴纳 - 香槟分校(UIUC)等团队近日发布论文,系统性剖析了 LLM 智能体失败的机制,并提出了可自我修复的创新框架 ——AgentDebug。该研究认为,AI 智能体应成为自身的观察者和调试者,不仅仅是被动的任务执行者,为未来大规模智能体的可靠运行和自动进化提供了理论与实践工具。

来自主题: AI技术研报
7416 点击    2025-11-07 15:01
如何自动优化领域任务的提示词?用EGO-Prompt|NeurIPS 2025

如何自动优化领域任务的提示词?用EGO-Prompt|NeurIPS 2025

如何自动优化领域任务的提示词?用EGO-Prompt|NeurIPS 2025

大型语言模型(LLMs)正迅速成为从金融到交通等各个专业领域不可或缺的辅助决策工具。但目前LLM的“通用智能”在面对高度专业化、高风险的任务时,往往显得力不从心。

来自主题: AI技术研报
7829 点击    2025-11-07 10:52
扩展外部测试时Scaling Law,中关村学院新发现:轻量级验证器可解锁LLM推理最优选择

扩展外部测试时Scaling Law,中关村学院新发现:轻量级验证器可解锁LLM推理最优选择

扩展外部测试时Scaling Law,中关村学院新发现:轻量级验证器可解锁LLM推理最优选择

在大语言模型(LLM)席卷各类复杂任务的今天,“测试时扩展”(Test-Time Scaling,TTS)已成为提升模型推理能力的核心思路 —— 简单来说,就是在模型 “答题” 时分配更多的计算资源来让它表现更好。严格来说,Test-Time Scaling 分成两类:

来自主题: AI技术研报
7486 点击    2025-11-06 14:59
ICML 2026史上最严新规:LLM不得列为作者,滥用AI直接退稿

ICML 2026史上最严新规:LLM不得列为作者,滥用AI直接退稿

ICML 2026史上最严新规:LLM不得列为作者,滥用AI直接退稿

ICML 2026论文可以投了,截止日期2026年1月28日。今年针对AI使用,组委会强调了三点:LLM不可以「署名」;严禁提示注入,否则拒稿;以及扩大AI审稿。

来自主题: AI资讯
7960 点击    2025-11-06 14:50
HF日趋榜一!真端到端模型AutoDeco终结手动调参解码

HF日趋榜一!真端到端模型AutoDeco终结手动调参解码

HF日趋榜一!真端到端模型AutoDeco终结手动调参解码

大语言模型(LLM)的「炼丹师」们,或许都曾面临一个共同的困扰:为不同任务、不同模型手动调整解码超参数(如 temperature 和 top-p)。这个过程不仅耗时耗力,而且一旦模型或任务发生变化,历史经验便瞬间失效,一切又得从头再来。

来自主题: AI技术研报
10718 点击    2025-11-04 16:14
字节Seed团队发布循环语言模型Ouro,在预训练阶段直接「思考」,Bengio组参与

字节Seed团队发布循环语言模型Ouro,在预训练阶段直接「思考」,Bengio组参与

字节Seed团队发布循环语言模型Ouro,在预训练阶段直接「思考」,Bengio组参与

现代 LLM 通常依赖显式的文本生成过程(例如「思维链」)来进行「思考」训练。这种策略将推理任务推迟到训练后的阶段,未能充分挖掘预训练数据中的潜力。

来自主题: AI技术研报
9070 点击    2025-11-04 16:12