AI资讯新闻榜单内容搜索-微软

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 微软
正交化之外是什么?微软等提出ARO优化器:训练提速1/3,揭示矩阵优化新「蓝海」

正交化之外是什么?微软等提出ARO优化器:训练提速1/3,揭示矩阵优化新「蓝海」

正交化之外是什么?微软等提出ARO优化器:训练提速1/3,揭示矩阵优化新「蓝海」

如果你在过去一年关注过大模型训练的技术,大概率听过 Muon 这个名字 —— 这个在月之暗面 K2 模型的相关讨论中走红的优化器,被视为是可能挑战 Adam 的新秀。它的思路很直接:对动量矩阵进行正交化,让各个奇异方向上的更新速率一致,提升训练效率。

来自主题: AI技术研报
6108 点击    2026-03-10 14:31
硅谷AI大佬的育儿经:别瞎学编程,文科生要逆袭,这6句话必须尽早跟孩子讲

硅谷AI大佬的育儿经:别瞎学编程,文科生要逆袭,这6句话必须尽早跟孩子讲

硅谷AI大佬的育儿经:别瞎学编程,文科生要逆袭,这6句话必须尽早跟孩子讲

最近有一个感觉越来越强烈,自己正在做的这份工作,可能是最后一代需要人来做的职业。 2026 刚开年,科技圈的裁员消息就没停过。英特尔裁了 21000 人,戴尔裁了 12000 人,微软裁了 15000

来自主题: AI资讯
8483 点击    2026-03-02 14:40
硅谷全面“龙虾化”!Anthropic微软Meta和Notion等集体交卷自己的Claw

硅谷全面“龙虾化”!Anthropic微软Meta和Notion等集体交卷自己的Claw

硅谷全面“龙虾化”!Anthropic微软Meta和Notion等集体交卷自己的Claw

现在硅谷最火的词,绝对是Claw。就在过去的半个月里,全球AI巨头似乎集体接到了一份名为“做自己的OpenClaw”的剧本。Meta急了。

来自主题: AI资讯
7494 点击    2026-03-01 11:28
扩散模型成最快深度思考!告别自回归每秒1009个tokens,英伟达微软都投了

扩散模型成最快深度思考!告别自回归每秒1009个tokens,英伟达微软都投了

扩散模型成最快深度思考!告别自回归每秒1009个tokens,英伟达微软都投了

前面已经说了,传统自回归就像打字机一样,一次只能处理一个token,且必须按照从左到右的顺序。但扩散模型Mercury 2的工作方式更像一位编辑——最终,Mercury 2能将生成速度提升5倍以上,且速度曲线截然不同。

来自主题: AI资讯
9748 点击    2026-02-26 12:26
又快又省?仅5%参数、训练快4倍!ArcFlow用「非线性」魔法实现FLUX/Qwen推理40倍加速

又快又省?仅5%参数、训练快4倍!ArcFlow用「非线性」魔法实现FLUX/Qwen推理40倍加速

又快又省?仅5%参数、训练快4倍!ArcFlow用「非线性」魔法实现FLUX/Qwen推理40倍加速

复旦大学与微软亚洲研究院带来的 ArcFlow 给出了答案:如果路是弯的,那就学会 “漂移”,而不是把路修直。在扩散模型中,教师模型(Pre-trained Teacher)的生成过程本质上是在高维空间中求解微分方程并进行多步积分。由于图像流形的复杂性,教师模型原本的采样轨迹通常是一条蜿蜒的曲线,其切线方向(即速度场)随时间步不断变化。

来自主题: AI技术研报
8039 点击    2026-02-25 14:15
让AI智能体「记住」失败经验:微软提出Re-TRAC框架,4B性能SOTA,30B超越358B

让AI智能体「记住」失败经验:微软提出Re-TRAC框架,4B性能SOTA,30B超越358B

让AI智能体「记住」失败经验:微软提出Re-TRAC框架,4B性能SOTA,30B超越358B

来自东南大学、微软亚洲研究院等机构的研究团队提出了一种全新的解决方案——Re-TRAC(REcursive TRAjectory Compression),这个框架让 AI 智能体能够「记住」每次探索的经验,在多个探索轨迹之间传递经验,实现渐进式的智能搜索。

来自主题: AI技术研报
9550 点击    2026-02-25 10:35
忍无可忍,Ilya宫斗奥特曼!微软CTO爆内幕:全因嫉妒下属太优秀?

忍无可忍,Ilya宫斗奥特曼!微软CTO爆内幕:全因嫉妒下属太优秀?

忍无可忍,Ilya宫斗奥特曼!微软CTO爆内幕:全因嫉妒下属太优秀?

硅谷最离谱宫斗:Ilya因嫉妒Jakub的「震撼突破」而点燃OpenAI火药桶,奥特曼被董事会踢出,引发高管离职潮。算力不足和预算挤压是根源,2026年文件曝光后,Ilya「塌房」。

来自主题: AI资讯
9823 点击    2026-02-22 11:12
一个模型统一所有离线任务!微软用671B大模型重构广告推荐「推理大脑」

一个模型统一所有离线任务!微软用671B大模型重构广告推荐「推理大脑」

一个模型统一所有离线任务!微软用671B大模型重构广告推荐「推理大脑」

近日,微软Bing Ads与DKI团队发表论文《AdNanny: One Reasoning LLM for All Offline Ads Recommendation Tasks》,宣布基于DeepSeek-R1 671B打造了统一的离线推理中枢AdNanny,用单一模型承载所有离线任务。这标志着从维护一系列任务特定模型,转向部署一个统一的、推理中心化的基础模型,从

来自主题: AI技术研报
9135 点击    2026-02-18 13:29