AI资讯新闻榜单内容搜索-模型注意力

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 模型注意力
首篇「Attention Sink」综述:从利用、理解到消除,Transformer中的注意力「汇聚」全景解析

首篇「Attention Sink」综述:从利用、理解到消除,Transformer中的注意力「汇聚」全景解析

首篇「Attention Sink」综述:从利用、理解到消除,Transformer中的注意力「汇聚」全景解析

几乎所有 Transformer 都在做一件反常的事:把大量注意力集中到少数几个特定 Token 上。这不是 bug,而是 Transformer 固有的「注意力汇聚」(Attention Sink)。首篇系统性综述,带你从利用、理解到消除,全面掌握这一核心现象。

来自主题: AI技术研报
8134 点击    2026-04-24 09:14
更像人脑的新型注意力机制,Meta让大模型自动屏蔽任务无关信息,准确率提高27%

更像人脑的新型注意力机制,Meta让大模型自动屏蔽任务无关信息,准确率提高27%

更像人脑的新型注意力机制,Meta让大模型自动屏蔽任务无关信息,准确率提高27%

关于大模型注意力机制,Meta又有了一项新研究。通过调整模型注意力,屏蔽无关信息的干扰,新的机制让大模型准确率进一步提升。而且这种机制不需要微调或训练,只靠Prompt就能让大模型的准确率上升27%。

来自主题: AI资讯
6940 点击    2023-11-27 17:14