AI技术研报-这里有最前沿的人工智能技术解读

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
ICML 2025 Spotlight | 清华朱军组&NVIDIA提出DDO:扩散/自回归模型训练新范式,刷新图像生成SOTA

ICML 2025 Spotlight | 清华朱军组&NVIDIA提出DDO:扩散/自回归模型训练新范式,刷新图像生成SOTA

ICML 2025 Spotlight | 清华朱军组&NVIDIA提出DDO:扩散/自回归模型训练新范式,刷新图像生成SOTA

清华大学朱军教授团队与 NVIDIA Deep Imagination 研究组联合提出一种全新的视觉生成模型优化范式 —— 直接判别优化(DDO)。

来自主题: AI技术研报
6141 点击    2025-07-02 10:33
Claude 创业,然后破产了。。。

Claude 创业,然后破产了。。。

Claude 创业,然后破产了。。。

几个月前,Anthropic 的办公室里多了一台很奇怪的自动售货机。

来自主题: AI技术研报
7093 点击    2025-07-02 10:20
Claude烧钱,Cline更烧钱,但聪明的开发者都在抢着用 | Cline 博客分享

Claude烧钱,Cline更烧钱,但聪明的开发者都在抢着用 | Cline 博客分享

Claude烧钱,Cline更烧钱,但聪明的开发者都在抢着用 | Cline 博客分享

这两天读到开源的代码 Agent,Cline 团队的一篇博客,《Why Cline Doesn't Index Your Codebase (And Why That's a Good Thing) 》,做了一些整理和探索,来分享一下这篇博客内容。

来自主题: AI技术研报
7854 点击    2025-07-02 10:13
超越微软,全球第一!上交AI智能体炼成「Kaggle特级大师」,登顶OpenAI MLE-bench

超越微软,全球第一!上交AI智能体炼成「Kaggle特级大师」,登顶OpenAI MLE-bench

超越微软,全球第一!上交AI智能体炼成「Kaggle特级大师」,登顶OpenAI MLE-bench

刚刚,由上海交通大学人工智能学院Agents团队提出的AI专家智能体,在OpenAI权威基准测试MLE-bench中击败了业界AI顶流微软,夺冠登顶!

来自主题: AI技术研报
4938 点击    2025-07-01 16:06
2025 ToC AI产品:仅有3%用户愿意付费,29%的父母每天使用

2025 ToC AI产品:仅有3%用户愿意付费,29%的父母每天使用

2025 ToC AI产品:仅有3%用户愿意付费,29%的父母每天使用

用户究竟是如何使用AI的? Menlo Ventures是一家硅谷老牌的风险投资公司,专注于消费者、企业和生命科学领域,曾投资了Uber、Siri、Tumblr等知名公司。

来自主题: AI技术研报
10306 点击    2025-07-01 15:43
伯克利&Meta面向具身智能的世界模型:让AI通过全身动作「看见」未来

伯克利&Meta面向具身智能的世界模型:让AI通过全身动作「看见」未来

伯克利&Meta面向具身智能的世界模型:让AI通过全身动作「看见」未来

几十年来,人工智能领域一直在思考一个看似简单但非常根本的问题: 如果一个智能体要在真实世界中行动、规划,并且和环境互动,它需要一个怎样的「世界模型」?

来自主题: AI技术研报
7931 点击    2025-07-01 15:01
只用2700万参数,这个推理模型超越了DeepSeek和Claude

只用2700万参数,这个推理模型超越了DeepSeek和Claude

只用2700万参数,这个推理模型超越了DeepSeek和Claude

像人一样推理。 大模型的架构,到了需要变革的时候? 在对复杂任务的推理工作上,当前的大语言模型(LLM)主要采用思维链(CoT)技术,但这些技术存在任务分解复杂、数据需求大以及高延迟等问题。

来自主题: AI技术研报
6194 点击    2025-07-01 10:26
会“思考”的目标检测模型来了!IDEA提出Rex-Thinker:基于思维链的指代物体检测模型,准确率+可解释性双突破

会“思考”的目标检测模型来了!IDEA提出Rex-Thinker:基于思维链的指代物体检测模型,准确率+可解释性双突破

会“思考”的目标检测模型来了!IDEA提出Rex-Thinker:基于思维链的指代物体检测模型,准确率+可解释性双突破

在日常生活中,我们常通过语言描述寻找特定物体:“穿蓝衬衫的人”“桌子左边的杯子”。如何让 AI 精准理解这类指令并定位目标,一直是计算机视觉的核心挑战。

来自主题: AI技术研报
7327 点击    2025-07-01 10:11
性能提升84%-166%!L-Zero仅靠强化学习解锁大模型探索世界的能力 | 已开源

性能提升84%-166%!L-Zero仅靠强化学习解锁大模型探索世界的能力 | 已开源

性能提升84%-166%!L-Zero仅靠强化学习解锁大模型探索世界的能力 | 已开源

大模型可以不再依赖人类调教,真正“自学成才”啦?新研究仅通过RLVR(可验证奖励的强化学习),成功让模型自主进化出通用的探索、验证与记忆能力,让模型学会“自学”!

来自主题: AI技术研报
6023 点击    2025-07-01 10:06
AI编程里程碑!谷歌AI自己写代码惊呆工程师,GPU内核算法反超人类21%

AI编程里程碑!谷歌AI自己写代码惊呆工程师,GPU内核算法反超人类21%

AI编程里程碑!谷歌AI自己写代码惊呆工程师,GPU内核算法反超人类21%

刚刚,AlphaEvolve又上大分了!基于它的开源实现OpenEvolve,靠自学成才、自己写代码,直接在苹果芯片上进化出了比人类还快21%的GPU核函数!这一刻,是自动化编程史上真正里程碑时刻,「AI为AI编程」的新时代正式开启,自动化奇点真要来了。

来自主题: AI技术研报
5780 点击    2025-06-30 16:53
用好视觉Attention局部性,清华、字节提出Token Reorder,无损实现5倍稀疏、4比特量化

用好视觉Attention局部性,清华、字节提出Token Reorder,无损实现5倍稀疏、4比特量化

用好视觉Attention局部性,清华、字节提出Token Reorder,无损实现5倍稀疏、4比特量化

近年来,随着视觉生成模型的发展,视觉生成任务的输入序列长度逐渐增长(高分辨率生成,视频多帧生成,可达到 10K-100K)。

来自主题: AI技术研报
5998 点击    2025-06-30 15:35
AI+出海,4 个月 ARR 500 万美元!蓝湖原班人马打造设计 Agent,一句话数秒生成原型,重新定义产品设计流程

AI+出海,4 个月 ARR 500 万美元!蓝湖原班人马打造设计 Agent,一句话数秒生成原型,重新定义产品设计流程

AI+出海,4 个月 ARR 500 万美元!蓝湖原班人马打造设计 Agent,一句话数秒生成原型,重新定义产品设计流程

在传统工具主导的设计流程中,从 Figma 或 Sketch 起稿,到开发团队手工编码,哪怕是一个简单的网页原型,通常也要经过多轮反复沟通与来回修改,整个流程周期以“周”为单位计算。而 Readdy.ai 的出现,正推动这个流程进入以“秒”计时的 AI 原生时代。

来自主题: AI技术研报
6842 点击    2025-06-30 14:42
微软推出深度视频探索智能体,登顶多个长视频理解基准

微软推出深度视频探索智能体,登顶多个长视频理解基准

微软推出深度视频探索智能体,登顶多个长视频理解基准

尽管大型语言模型(LLMs)和大型视觉 - 语言模型(VLMs)在视频分析和长语境处理方面取得了显著进展,但它们在处理信息密集的数小时长视频时仍显示出局限性。

来自主题: AI技术研报
6248 点击    2025-06-30 14:34
图像界的DeepSeek!12B参数对标GPT-4o,5秒出图,消费级硬件就能玩转编辑生成

图像界的DeepSeek!12B参数对标GPT-4o,5秒出图,消费级硬件就能玩转编辑生成

图像界的DeepSeek!12B参数对标GPT-4o,5秒出图,消费级硬件就能玩转编辑生成

图像模型开源还得是FLUX!Black Forest Labs刚刚宣布开源旗舰图像模型FLUX.1 Kontext[dev],专为图像编辑打造,还能直接在消费级芯片上运行。

来自主题: AI技术研报
5677 点击    2025-06-30 14:29
强化学习也能预训练?效果可提升20倍,华人新作引爆RL新范式!

强化学习也能预训练?效果可提升20倍,华人新作引爆RL新范式!

强化学习也能预训练?效果可提升20倍,华人新作引爆RL新范式!

大模型的预训练-微调范式,正在悄然改写强化学习!伯克利团队提出新方法InFOM,不依赖奖励信号,也能在多个任务中实现超强迁移,还能做到「读心术」级别的推理。这到底怎么做到的?

来自主题: AI技术研报
6168 点击    2025-06-30 10:52
打破长视频理解瓶颈:HoPE混合位置编码提升VLM长度泛化能力

打破长视频理解瓶颈:HoPE混合位置编码提升VLM长度泛化能力

打破长视频理解瓶颈:HoPE混合位置编码提升VLM长度泛化能力

如今的视觉语言模型 (VLM, Vision Language Models) 已经在视觉问答、图像描述等多模态任务上取得了卓越的表现。然而,它们在长视频理解和检索等长上下文任务中仍表现不佳。

来自主题: AI技术研报
6139 点击    2025-06-30 10:24
AI一眼认出95万物种,还能分辨雄雌老幼,2亿生物图像炼成“生命视觉”大模型

AI一眼认出95万物种,还能分辨雄雌老幼,2亿生物图像炼成“生命视觉”大模型

AI一眼认出95万物种,还能分辨雄雌老幼,2亿生物图像炼成“生命视觉”大模型

让AI看懂95万物种,并自己悟出生态关系与个体差异!俄亥俄州立大学研究团队在2亿生物图像数据上训练了BioCLIP 2模型。大规模的训练让BioCLIP 2取得了目前最优的物种识别性能。

来自主题: AI技术研报
5678 点击    2025-06-29 16:59
Gary Marcus惊世之言:纯LLM上构建AGI彻底没了希望!MIT、芝大、哈佛论文火了

Gary Marcus惊世之言:纯LLM上构建AGI彻底没了希望!MIT、芝大、哈佛论文火了

Gary Marcus惊世之言:纯LLM上构建AGI彻底没了希望!MIT、芝大、哈佛论文火了

今天,著名的人工智能学者和认知科学家 Gary Marcus 转推了 MIT、芝加哥大学、哈佛大学合著的一篇爆炸性论文,称「对于 LLM 及其所谓能理解和推理的神话来说,情况变得更糟了 —— 而且是糟糕得多。」

来自主题: AI技术研报
5609 点击    2025-06-29 16:11
苹果一口咬死AI不会思考!OpenAI前高管直接开怼:AGI已来,别再酸了

苹果一口咬死AI不会思考!OpenAI前高管直接开怼:AGI已来,别再酸了

苹果一口咬死AI不会思考!OpenAI前高管直接开怼:AGI已来,别再酸了

最近,苹果的一篇论文掀起波澜,挑战了当下AI推理能力的基本假设。而OpenAI的前研究主管则断言:AGI时代已近在眼前。谁是谁非?AGI还有多远?

来自主题: AI技术研报
7080 点击    2025-06-29 12:30
Anthropic最新研究:Claude正悄悄进化为“情绪价值大师”

Anthropic最新研究:Claude正悄悄进化为“情绪价值大师”

Anthropic最新研究:Claude正悄悄进化为“情绪价值大师”

你有没有试过,深夜心情低落时,对着AI倾诉?Anthropic最新研究发现,越来越多成年人正把AI当作情感陪伴。

来自主题: AI技术研报
6235 点击    2025-06-28 17:06
航空发动机用上大模型:解决复杂时序问题,性能超越ChatGPT-4o实现SOTA|上交创智复旦

航空发动机用上大模型:解决复杂时序问题,性能超越ChatGPT-4o实现SOTA|上交创智复旦

航空发动机用上大模型:解决复杂时序问题,性能超越ChatGPT-4o实现SOTA|上交创智复旦

时序数据分析在工业监控、医疗诊断等领域至关重要。比如航空发动机监控这个复杂工业场景中,工程师需分析海量多通道传感器数据,以判断设备状态并制定维护决策。

来自主题: AI技术研报
6118 点击    2025-06-28 17:00
上下文就是一切!行业热议话题:提示工程是否应该改名

上下文就是一切!行业热议话题:提示工程是否应该改名

上下文就是一切!行业热议话题:提示工程是否应该改名

这几天 AI 圈子有个非常有必要也非常热的讨论就是提示工程是不是应该被称为“上下文工程”更加适合。

来自主题: AI技术研报
5605 点击    2025-06-28 16:54
ICML 2025 Spotlight | 新理论框架解锁流匹配模型的引导生成

ICML 2025 Spotlight | 新理论框架解锁流匹配模型的引导生成

ICML 2025 Spotlight | 新理论框架解锁流匹配模型的引导生成

在解决离线强化学习、图片逆问题等任务中,对生成模型的能量引导(energy guidance)是一种可控的生成方法,它构造灵活,适用于各种任务,且允许无额外训练条件生成模型。同时流匹配(flow matching)框架作为一种生成模型,近期在分子生成、图片生成等领域中已经展现出巨大潜力。

来自主题: AI技术研报
6212 点击    2025-06-28 16:35
无需训练,即插即用,2倍GPU端到端推理加速——视频扩散模型加速方法DraftAttention

无需训练,即插即用,2倍GPU端到端推理加速——视频扩散模型加速方法DraftAttention

无需训练,即插即用,2倍GPU端到端推理加速——视频扩散模型加速方法DraftAttention

在高质量视频生成任务中,扩散模型(Diffusion Models)已经成为主流。然而,随着视频长度和分辨率的提升,Diffusion Transformer(DiT)模型中的注意力机制计算量急剧增加,成为推理效率的最大瓶颈。

来自主题: AI技术研报
6141 点击    2025-06-28 16:09
这个扩散LLM太快了!没有「请稍后」,实测倍速于Gemini 2.5 Flash

这个扩散LLM太快了!没有「请稍后」,实测倍速于Gemini 2.5 Flash

这个扩散LLM太快了!没有「请稍后」,实测倍速于Gemini 2.5 Flash

只需一眨眼的功夫,Mercury 就把任务完成了。「我们非常高兴地推出 Mercury,这是首款专为聊天应用量身定制的商业级扩散 LLM!Mercury 速度超快,效率超高,能够为对话带来实时响应,就像 Mercury Coder 为代码带来的体验一样。」

来自主题: AI技术研报
5643 点击    2025-06-28 13:01
ICML 2025 | 打破残差连接瓶颈,彩云科技&北邮提出MUDDFormer架构让Transformer再进化!

ICML 2025 | 打破残差连接瓶颈,彩云科技&北邮提出MUDDFormer架构让Transformer再进化!

ICML 2025 | 打破残差连接瓶颈,彩云科技&北邮提出MUDDFormer架构让Transformer再进化!

但在当今的深度 Transformer LLMs 中仍有其局限性,限制了信息在跨层间的高效传递。 彩云科技与北京邮电大学近期联合提出了一个简单有效的残差连接替代:多路动态稠密连接(MUltiway Dynamic Dense (MUDD) connection),大幅度提高了 Transformer 跨层信息传递的效率。

来自主题: AI技术研报
5827 点击    2025-06-28 11:33