AI资讯新闻榜单内容搜索-LLM

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: LLM
让AI像人类一样认知真实世界!UCLA谷歌强强联手,长时记忆+3D空间理解超越基线16.5%

让AI像人类一样认知真实世界!UCLA谷歌强强联手,长时记忆+3D空间理解超越基线16.5%

让AI像人类一样认知真实世界!UCLA谷歌强强联手,长时记忆+3D空间理解超越基线16.5%

想象一下,你在一个陌生的房子里寻找合适的礼物盒包装泰迪熊,需要记住每个房间里的物品特征、位置关系,并根据反馈调整行动。

来自主题: AI技术研报
7119 点击    2025-06-04 10:08
ACL2025 | 传统符号语言传递知识太低效?探索LLM高效参数迁移可行性

ACL2025 | 传统符号语言传递知识太低效?探索LLM高效参数迁移可行性

ACL2025 | 传统符号语言传递知识太低效?探索LLM高效参数迁移可行性

人类的思维是非透明的,没有继承的记忆,因此需要通过语言交流的环境来学习。人类的知识传递长期依赖符号语言:从文字、数学公式到编程代码,我们通过符号系统将知识编码、解码。但这种方式存在天然瓶颈,比如信息冗余、效率低下等。

来自主题: AI技术研报
8350 点击    2025-06-03 14:57
当大模型汲取进化记忆,它离“人性”还有多远?

当大模型汲取进化记忆,它离“人性”还有多远?

当大模型汲取进化记忆,它离“人性”还有多远?

大语言模型(LLMs)作为由复杂算法和海量数据驱动的产物,会不会“无意中”学会了某些类似人类进化出来的行为模式?这听起来或许有些大胆,但背后的推理其实并不难理解:

来自主题: AI资讯
5072 点击    2025-06-03 10:57
微软等提出「模型链」新范式,与Transformer性能相当,扩展性灵活性更好

微软等提出「模型链」新范式,与Transformer性能相当,扩展性灵活性更好

微软等提出「模型链」新范式,与Transformer性能相当,扩展性灵活性更好

随着大语言模型 (LLM) 的出现,扩展 Transformer 架构已被视为彻底改变现有 AI 格局并在众多不同任务中取得最佳性能的有利途径。因此,无论是在工业界还是学术界,探索如何扩展 Transformer 模型日益成为一种趋势。

来自主题: AI技术研报
8074 点击    2025-06-03 09:58
LSTM之父22年前构想将成真?一周内AI「自我进化」论文集中发布,新趋势涌现?

LSTM之父22年前构想将成真?一周内AI「自我进化」论文集中发布,新趋势涌现?

LSTM之父22年前构想将成真?一周内AI「自我进化」论文集中发布,新趋势涌现?

在过去的一周,这一方向的进展尤其丰富。有人发现,几篇关于「让 LLM(或智能体)学会自我训练」的论文在 arXiv 上集中出现,其中甚至包括受「哥德尔机」构想启发而提出的「达尔文哥德尔机」。或许,AI 模型的自我进化能力正在加速提升。

来自主题: AI技术研报
7189 点击    2025-06-03 09:36
微软再放LLM量化大招!原生4bit量化,成本暴减,性能几乎0损失

微软再放LLM量化大招!原生4bit量化,成本暴减,性能几乎0损失

微软再放LLM量化大招!原生4bit量化,成本暴减,性能几乎0损失

原生1bit大模型BitNet b1.58 2B4T再升级!微软公布BitNet v2,性能几乎0损失,而占用内存和计算成本显著降低。

来自主题: AI技术研报
7803 点击    2025-06-02 18:00
首次解释LLM如何推理反思!西北大学谷歌新框架:引入贝叶斯自适应强化学习,数学推理全面提升

首次解释LLM如何推理反思!西北大学谷歌新框架:引入贝叶斯自适应强化学习,数学推理全面提升

首次解释LLM如何推理反思!西北大学谷歌新框架:引入贝叶斯自适应强化学习,数学推理全面提升

推理模型常常表现出类似自我反思的行为,但问题是——这些行为是否真的能有效探索新策略呢?

来自主题: AI技术研报
7221 点击    2025-06-02 17:48
揭开大模型“伪遗忘”,港理工等团队:结构不变就是没忘

揭开大模型“伪遗忘”,港理工等团队:结构不变就是没忘

揭开大模型“伪遗忘”,港理工等团队:结构不变就是没忘

近年来,大语言模型(LLMs)的能力突飞猛进,但随之而来的隐私风险也逐渐浮出水面。

来自主题: AI技术研报
7202 点击    2025-06-02 16:22
AI数学能力暴涨100%,自进化直逼RL极限!CMU新作颠覆认知

AI数学能力暴涨100%,自进化直逼RL极限!CMU新作颠覆认知

AI数学能力暴涨100%,自进化直逼RL极限!CMU新作颠覆认知

数据枯竭正成为AI发展的新瓶颈!CMU团队提出革命性方案SRT:让LLM实现无需人类标注的自我进化!SRT初期就能迭代提升数学与推理能力,甚至性能逼近传统强化学习的效果,揭示了其颠覆性潜力。

来自主题: AI技术研报
6864 点击    2025-06-02 14:16