AI资讯新闻榜单内容搜索-io

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: io
解读IDC《中国AI翻译技术评估》报告:大模型带来“技术平权”,新的分水岭在哪?

解读IDC《中国AI翻译技术评估》报告:大模型带来“技术平权”,新的分水岭在哪?

解读IDC《中国AI翻译技术评估》报告:大模型带来“技术平权”,新的分水岭在哪?

2025 年 10 月,国际数据公司(International Data Corporation,IDC)发布了《中国 AI 翻译技术评估》报告。这份以“大模型驱动 AI 翻译能力全面换新”为主题的报告指出,大模型技术的全面渗透正在深刻重塑 AI 翻译市场。

来自主题: AI资讯
7391 点击    2025-10-21 10:45
1.58bit不输FP16!微软推出全新模型蒸馏框架,作者全是华人

1.58bit不输FP16!微软推出全新模型蒸馏框架,作者全是华人

1.58bit不输FP16!微软推出全新模型蒸馏框架,作者全是华人

1.58bit量化,内存仅需1/10,但表现不输FP16? 微软最新推出的蒸馏框架BitNet Distillation(简称BitDistill),实现了几乎无性能损失的模型量化。

来自主题: AI技术研报
5817 点击    2025-10-20 14:35
谷歌新版Gemini马甲被扒! LMArena实测:唯一能看懂表的AI, GPT-5乱答

谷歌新版Gemini马甲被扒! LMArena实测:唯一能看懂表的AI, GPT-5乱答

谷歌新版Gemini马甲被扒! LMArena实测:唯一能看懂表的AI, GPT-5乱答

谷歌的Gemini 3.0疑似上线LMArena!众多实测提前曝光,但效果嘛,很难评。Gemini 3.0传了这么久,终于还是露出「马脚」了。依然还是LMAreana竞技场,Gemini 3.0的两个「马甲」被扒了出来。

来自主题: AI资讯
8185 点击    2025-10-20 12:40
英伟达4段简短提示词,IOI夺金!开源模型也能征服最难编程竞赛

英伟达4段简短提示词,IOI夺金!开源模型也能征服最难编程竞赛

英伟达4段简短提示词,IOI夺金!开源模型也能征服最难编程竞赛

OpenAI的封闭模型在IOI 2025竞赛夺金的同时,英伟达团队交出了一份同样令人振奋的答卷——他们利用完全开源的大模型和全新的GenCluster策略,在IOI 2025竞赛中跑出了媲美金牌选手的成绩!开源模型首次达到了IOI金牌水准。这究竟是怎样实现的?

来自主题: AI技术研报
7757 点击    2025-10-20 10:13
多轮Agent训练遇到级联失效?熵控制强化学习来破局

多轮Agent训练遇到级联失效?熵控制强化学习来破局

多轮Agent训练遇到级联失效?熵控制强化学习来破局

在训练多轮 LLM Agent 时(如需要 30 + 步交互才能完成单个任务的场景),研究者遇到了一个严重的训练不稳定问题:标准的强化学习方法(PPO/GRPO)在稀疏奖励环境下表现出剧烈的熵值震荡,导致训练曲线几乎不收敛。

来自主题: AI技术研报
6202 点击    2025-10-19 12:06
新晋诺奖得主曾警告:别做梦了,AI难有「经济奇点」!

新晋诺奖得主曾警告:别做梦了,AI难有「经济奇点」!

新晋诺奖得主曾警告:别做梦了,AI难有「经济奇点」!

从蒸汽机到AI,自动化进程已持续两百年。在2017年,新晋诺奖得主Philippe Aghion就剖析AI对就业与增长的影响,强调它并非奇点催化剂,而是受「鲍莫尔成本病」制约的工具。

来自主题: AI资讯
6035 点击    2025-10-17 15:49
从掩码生成到「再掩码」训练:RemeDi让扩散语言模型学会自我纠正与反思

从掩码生成到「再掩码」训练:RemeDi让扩散语言模型学会自我纠正与反思

从掩码生成到「再掩码」训练:RemeDi让扩散语言模型学会自我纠正与反思

近期,扩散语言模型备受瞩目,提供了一种不同于自回归模型的文本生成解决方案。为使模型能够在生成过程中持续修正与优化中间结果,西湖大学 MAPLE 实验室齐国君教授团队成功训练了具有「再掩码」能力的扩散语言模型(Remasking-enabled Diffusion Language Model, RemeDi 9B)。

来自主题: AI技术研报
5411 点击    2025-10-17 09:41
NeurIPS 2025 Spotlight | 条件表征学习:一步对齐表征与准则

NeurIPS 2025 Spotlight | 条件表征学习:一步对齐表征与准则

NeurIPS 2025 Spotlight | 条件表征学习:一步对齐表征与准则

一张图片包含的信息是多维的。例如下面的图 1,我们至少可以得到三个层面的信息:主体是大象,数量有两头,环境是热带稀树草原(savanna)。然而,如果由传统的表征学习方法来处理这张图片,比方说就将其送入一个在 ImageNet 上训练好的 ResNet 或者 Vision Transformer,往往得到的表征只会体现其主体信息,也就是会简单地将该图片归为大象这一类别。这显然是不合理的。

来自主题: AI技术研报
6760 点击    2025-10-16 14:43
ICCV 2025 | FDAM:告别模糊视界,源自电路理论的即插即用方法让视觉Transformer重获高清细节

ICCV 2025 | FDAM:告别模糊视界,源自电路理论的即插即用方法让视觉Transformer重获高清细节

ICCV 2025 | FDAM:告别模糊视界,源自电路理论的即插即用方法让视觉Transformer重获高清细节

针对视觉 Transformer(ViT)因其固有 “低通滤波” 特性导致深度网络中细节信息丢失的问题,我们提出了一种即插即用、受电路理论启发的 频率动态注意力调制(FDAM)模块。它通过巧妙地 “反转” 注意力以生成高频补偿,并对特征频谱进行动态缩放,最终在几乎不增加计算成本的情况下,大幅提升了模型在分割、检测等密集预测任务上的性能,并取得了 SOTA 效果。

来自主题: AI技术研报
6238 点击    2025-10-16 14:35