AI资讯新闻榜单内容搜索-语言模型

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 语言模型
多模态推理新基准!最强Gemini 2.5 Pro仅得60分,复旦港中文上海AILab等出品

多模态推理新基准!最强Gemini 2.5 Pro仅得60分,复旦港中文上海AILab等出品

多模态推理新基准!最强Gemini 2.5 Pro仅得60分,复旦港中文上海AILab等出品

逻辑推理是人类智能的核心能力,也是多模态大语言模型 (MLLMs) 的关键能力。随着DeepSeek-R1等具备强大推理能力的LLM的出现,研究人员开始探索如何将推理能力引入多模态大模型(MLLMs)

来自主题: AI技术研报
7903 点击    2025-06-07 10:35
真实联网搜索Agent,7B媲美满血R1,华为盘古DeepDiver给出开域信息获取新解法

真实联网搜索Agent,7B媲美满血R1,华为盘古DeepDiver给出开域信息获取新解法

真实联网搜索Agent,7B媲美满血R1,华为盘古DeepDiver给出开域信息获取新解法

大型语言模型 (LLM) 的发展日新月异,但实时「内化」与时俱进的知识仍然是一项挑战。如何让模型在面对复杂的知识密集型问题时,能够自主决策获取外部知识的策略?

来自主题: AI技术研报
6930 点击    2025-06-05 16:43
ACL 2025 | 基于Token预算感知的大模型高效推理技术

ACL 2025 | 基于Token预算感知的大模型高效推理技术

ACL 2025 | 基于Token预算感知的大模型高效推理技术

随着大型语言模型(LLM)技术的不断发展,Chain-of-Thought(CoT) 等推理增强方法被提出,以期提升模型在数学题解、逻辑问答等复杂任务中的表现,并通过引导模型逐步思考,有效提高了模型准确率。

来自主题: AI技术研报
5715 点击    2025-06-05 16:14
英伟达揭示RL Scaling魔力!训练步数翻倍=推理能力质变,小模型突破推理极限

英伟达揭示RL Scaling魔力!训练步数翻倍=推理能力质变,小模型突破推理极限

英伟达揭示RL Scaling魔力!训练步数翻倍=推理能力质变,小模型突破推理极限

强化学习(RL)到底是语言模型能力进化的「发动机」,还是只是更努力地背题、换个方式答题?这个问题,学界争论已久:RL 真能让模型学会新的推理技能吗,还是只是提高了已有知识的调用效率?

来自主题: AI技术研报
6433 点击    2025-06-05 10:27
冲击自回归,扩散模型正在改写下一代通用模型范式

冲击自回归,扩散模型正在改写下一代通用模型范式

冲击自回归,扩散模型正在改写下一代通用模型范式

上个月 21 号,Google I/O 2025 开发者大会可说是吸睛无数,各种 AI 模型、技术、工具、服务、应用让人目不暇接。在这其中,Gemini Diffusion 绝对算是最让人兴奋的进步之一。从名字看得出来,这是一个采用了扩散模型的 AI 模型,而这个模型却并非我们通常看到的扩散式视觉生成模型,而是一个地地道道的语言模型!

来自主题: AI技术研报
7015 点击    2025-06-04 14:04
当大模型汲取进化记忆,它离“人性”还有多远?

当大模型汲取进化记忆,它离“人性”还有多远?

当大模型汲取进化记忆,它离“人性”还有多远?

大语言模型(LLMs)作为由复杂算法和海量数据驱动的产物,会不会“无意中”学会了某些类似人类进化出来的行为模式?这听起来或许有些大胆,但背后的推理其实并不难理解:

来自主题: AI资讯
4873 点击    2025-06-03 10:57
微软等提出「模型链」新范式,与Transformer性能相当,扩展性灵活性更好

微软等提出「模型链」新范式,与Transformer性能相当,扩展性灵活性更好

微软等提出「模型链」新范式,与Transformer性能相当,扩展性灵活性更好

随着大语言模型 (LLM) 的出现,扩展 Transformer 架构已被视为彻底改变现有 AI 格局并在众多不同任务中取得最佳性能的有利途径。因此,无论是在工业界还是学术界,探索如何扩展 Transformer 模型日益成为一种趋势。

来自主题: AI技术研报
7887 点击    2025-06-03 09:58
揭开大模型“伪遗忘”,港理工等团队:结构不变就是没忘

揭开大模型“伪遗忘”,港理工等团队:结构不变就是没忘

揭开大模型“伪遗忘”,港理工等团队:结构不变就是没忘

近年来,大语言模型(LLMs)的能力突飞猛进,但随之而来的隐私风险也逐渐浮出水面。

来自主题: AI技术研报
7049 点击    2025-06-02 16:22