AI资讯新闻榜单内容搜索-模型

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
搜索: 模型
算力终结者来了!华人天团「降维打击」注意力瓶颈,AI狂飙进对数时代

算力终结者来了!华人天团「降维打击」注意力瓶颈,AI狂飙进对数时代

算力终结者来了!华人天团「降维打击」注意力瓶颈,AI狂飙进对数时代

注意力机制的「平方枷锁」,再次被撬开!一招Fenwick树分段,用掩码矩阵,让注意力焕发对数级效率。更厉害的是,它无缝对接线性注意力家族,Mamba-2、DeltaNet 全员提速,跑分全面开花。长序列处理迈入log时代!

来自主题: AI技术研报
6778 点击    2025-06-08 15:27
告别「失忆」AI!首个大模型记忆操作系统开源框架来了!

告别「失忆」AI!首个大模型记忆操作系统开源框架来了!

告别「失忆」AI!首个大模型记忆操作系统开源框架来了!

该项目来自百家 AI,是北京邮电大学白婷副教授所指导的研究小组, 团队致力于为硅基人类倾力打造情感饱满、记忆超凡的智慧大脑。

来自主题: AI技术研报
7006 点击    2025-06-08 15:07
为什么用错奖励,模型也能提分?新研究:模型学的不是新知识,是思维

为什么用错奖励,模型也能提分?新研究:模型学的不是新知识,是思维

为什么用错奖励,模型也能提分?新研究:模型学的不是新知识,是思维

最近的一篇论文中,来自人大和腾讯的研究者们的研究表明,语言模型对强化学习中的奖励噪音具有鲁棒性,即使翻转相当一部分的奖励(例如,正确答案得 0 分,错误答案得 1 分),也不会显著影响下游任务的表现。

来自主题: AI技术研报
6385 点击    2025-06-08 14:35
没想到,最Open的开源新模型,来自小红书

没想到,最Open的开源新模型,来自小红书

没想到,最Open的开源新模型,来自小红书

迄今为止行业最大的开源力度。在大模型上向来低调的小红书,昨天开源了首个自研大模型。

来自主题: AI技术研报
6601 点击    2025-06-07 15:32
你永远叫不醒装睡的大模型!多轮对话全军覆没,性能暴跌39%

你永远叫不醒装睡的大模型!多轮对话全军覆没,性能暴跌39%

你永远叫不醒装睡的大模型!多轮对话全军覆没,性能暴跌39%

20万次模拟实验,耗资5000美元,证实大模型在多轮对话中的表现明显低于单轮对话!一旦模型的第一轮答案出现偏差,不要试图纠正,而是新开一个对话!

来自主题: AI技术研报
5842 点击    2025-06-07 15:01
生图效果媲美GPT-4o,一键搞定各类视觉生成任务丨港科广&字节全新框架

生图效果媲美GPT-4o,一键搞定各类视觉生成任务丨港科广&字节全新框架

生图效果媲美GPT-4o,一键搞定各类视觉生成任务丨港科广&字节全新框架

图像生成、视频创作、照片精修需要找不同的模型完成也太太太太太麻烦了。 有没有这样一个“AI创作大师”,你只需要用一句话描述脑海中的灵感,它就能自动为你搭建流程、选择工具、反复修改,最终交付高质量的视觉作品呢?

来自主题: AI技术研报
6770 点击    2025-06-07 14:49
多模态模型挑战北京杭州地铁图!o3成绩显著,但跟人类有差距

多模态模型挑战北京杭州地铁图!o3成绩显著,但跟人类有差距

多模态模型挑战北京杭州地铁图!o3成绩显著,但跟人类有差距

近年来,大语言模型(LLMs)以及多模态大模型(MLLMs)在多种场景理解和复杂推理任务中取得突破性进展。

来自主题: AI技术研报
6184 点击    2025-06-07 14:20
谷歌Transformer过时了?清华姚班校友等三连击,爆改注意力!

谷歌Transformer过时了?清华姚班校友等三连击,爆改注意力!

谷歌Transformer过时了?清华姚班校友等三连击,爆改注意力!

RNN太老,Transformer太慢?谷歌掀翻Transformer王座,用「注意力偏向+保留门」取代传统遗忘机制,重新定义了AI架构设计。全新模型Moneta、Yaad、Memora,在多个任务上全面超越Transformer。这一次,谷歌不是调参,而是换脑!

来自主题: AI技术研报
6939 点击    2025-06-07 14:19