AI资讯新闻榜单内容搜索-微软

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 微软
硅谷AI大佬的育儿经:别瞎学编程,文科生要逆袭,这6句话必须尽早跟孩子讲

硅谷AI大佬的育儿经:别瞎学编程,文科生要逆袭,这6句话必须尽早跟孩子讲

硅谷AI大佬的育儿经:别瞎学编程,文科生要逆袭,这6句话必须尽早跟孩子讲

最近有一个感觉越来越强烈,自己正在做的这份工作,可能是最后一代需要人来做的职业。 2026 刚开年,科技圈的裁员消息就没停过。英特尔裁了 21000 人,戴尔裁了 12000 人,微软裁了 15000

来自主题: AI资讯
7867 点击    2026-03-02 14:40
硅谷全面“龙虾化”!Anthropic微软Meta和Notion等集体交卷自己的Claw

硅谷全面“龙虾化”!Anthropic微软Meta和Notion等集体交卷自己的Claw

硅谷全面“龙虾化”!Anthropic微软Meta和Notion等集体交卷自己的Claw

现在硅谷最火的词,绝对是Claw。就在过去的半个月里,全球AI巨头似乎集体接到了一份名为“做自己的OpenClaw”的剧本。Meta急了。

来自主题: AI资讯
6872 点击    2026-03-01 11:28
扩散模型成最快深度思考!告别自回归每秒1009个tokens,英伟达微软都投了

扩散模型成最快深度思考!告别自回归每秒1009个tokens,英伟达微软都投了

扩散模型成最快深度思考!告别自回归每秒1009个tokens,英伟达微软都投了

前面已经说了,传统自回归就像打字机一样,一次只能处理一个token,且必须按照从左到右的顺序。但扩散模型Mercury 2的工作方式更像一位编辑——最终,Mercury 2能将生成速度提升5倍以上,且速度曲线截然不同。

来自主题: AI资讯
9210 点击    2026-02-26 12:26
又快又省?仅5%参数、训练快4倍!ArcFlow用「非线性」魔法实现FLUX/Qwen推理40倍加速

又快又省?仅5%参数、训练快4倍!ArcFlow用「非线性」魔法实现FLUX/Qwen推理40倍加速

又快又省?仅5%参数、训练快4倍!ArcFlow用「非线性」魔法实现FLUX/Qwen推理40倍加速

复旦大学与微软亚洲研究院带来的 ArcFlow 给出了答案:如果路是弯的,那就学会 “漂移”,而不是把路修直。在扩散模型中,教师模型(Pre-trained Teacher)的生成过程本质上是在高维空间中求解微分方程并进行多步积分。由于图像流形的复杂性,教师模型原本的采样轨迹通常是一条蜿蜒的曲线,其切线方向(即速度场)随时间步不断变化。

来自主题: AI技术研报
7455 点击    2026-02-25 14:15
让AI智能体「记住」失败经验:微软提出Re-TRAC框架,4B性能SOTA,30B超越358B

让AI智能体「记住」失败经验:微软提出Re-TRAC框架,4B性能SOTA,30B超越358B

让AI智能体「记住」失败经验:微软提出Re-TRAC框架,4B性能SOTA,30B超越358B

来自东南大学、微软亚洲研究院等机构的研究团队提出了一种全新的解决方案——Re-TRAC(REcursive TRAjectory Compression),这个框架让 AI 智能体能够「记住」每次探索的经验,在多个探索轨迹之间传递经验,实现渐进式的智能搜索。

来自主题: AI技术研报
9008 点击    2026-02-25 10:35
忍无可忍,Ilya宫斗奥特曼!微软CTO爆内幕:全因嫉妒下属太优秀?

忍无可忍,Ilya宫斗奥特曼!微软CTO爆内幕:全因嫉妒下属太优秀?

忍无可忍,Ilya宫斗奥特曼!微软CTO爆内幕:全因嫉妒下属太优秀?

硅谷最离谱宫斗:Ilya因嫉妒Jakub的「震撼突破」而点燃OpenAI火药桶,奥特曼被董事会踢出,引发高管离职潮。算力不足和预算挤压是根源,2026年文件曝光后,Ilya「塌房」。

来自主题: AI资讯
9251 点击    2026-02-22 11:12
一个模型统一所有离线任务!微软用671B大模型重构广告推荐「推理大脑」

一个模型统一所有离线任务!微软用671B大模型重构广告推荐「推理大脑」

一个模型统一所有离线任务!微软用671B大模型重构广告推荐「推理大脑」

近日,微软Bing Ads与DKI团队发表论文《AdNanny: One Reasoning LLM for All Offline Ads Recommendation Tasks》,宣布基于DeepSeek-R1 671B打造了统一的离线推理中枢AdNanny,用单一模型承载所有离线任务。这标志着从维护一系列任务特定模型,转向部署一个统一的、推理中心化的基础模型,从

来自主题: AI技术研报
8553 点击    2026-02-18 13:29
登顶Hugging Face论文热榜,LLM重写数据准备的游戏规则

登顶Hugging Face论文热榜,LLM重写数据准备的游戏规则

登顶Hugging Face论文热榜,LLM重写数据准备的游戏规则

来自上海交通大学、清华大学、微软研究院、麻省理工学院(MIT)、上海 AI Lab、小红书、阿里巴巴、港科大(广州)等机构的研究团队,系统梳理了近年来大语言模型在数据准备流程中的角色变化,试图回答一个业界关心的问题:LLM 能否成为下一代数据管道的「智能语义中枢」,彻底重构数据准备的范式?

来自主题: AI技术研报
8033 点击    2026-02-09 11:12