AI技术研报-这里有最前沿的人工智能技术解读

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
DeepSeek占比升至9.6%,稳居全球第二!「全球生成式AI行业趋势」发布

DeepSeek占比升至9.6%,稳居全球第二!「全球生成式AI行业趋势」发布

DeepSeek占比升至9.6%,稳居全球第二!「全球生成式AI行业趋势」发布

生成式AI正重塑众多行业格局!传统搜索、网站与自由开发者、教育科技等行业受到冲击。AI对行业变革又有哪些推动作用?答案就在报告中。

来自主题: AI技术研报
5400 点击    2025-03-09 11:49
火山引擎直接把大模型应用给开源了,附部署教程和实测体验!

火山引擎直接把大模型应用给开源了,附部署教程和实测体验!

火山引擎直接把大模型应用给开源了,附部署教程和实测体验!

从今天这个视角来看,DeepSeek 等国内外大模型能力是越来越强大了,大家都说 2025 年 AI 应用还会持续爆发。但对于企业来说,有了大模型,那场景都有啥,应用又长啥样?

来自主题: AI技术研报
7480 点击    2025-03-09 11:36
攻破OpenAI o1/o3、DeepSeek R1防线,安全推理过程反成大模型「阿喀琉斯之踵」

攻破OpenAI o1/o3、DeepSeek R1防线,安全推理过程反成大模型「阿喀琉斯之踵」

攻破OpenAI o1/o3、DeepSeek R1防线,安全推理过程反成大模型「阿喀琉斯之踵」

杜克大学计算进化智能中心的最新研究给出了警示性答案。团队提出的 H-CoT(思维链劫持)的攻击方法成功突破包括 OpenAI o1/o3、DeepSeek-R1、Gemini 2.0 Flash Thinking 在内的多款高性能大型推理模型的安全防线:在涉及极端犯罪策略的虚拟教育场景测试中,模型拒绝率从初始的 98% 暴跌至 2% 以下,部分案例中甚至出现从「谨慎劝阻」到「主动献策」的立场反转。

来自主题: AI技术研报
5215 点击    2025-03-09 10:37
32B击败DeepSeek-R1、o3-mini,成本暴降100倍!GRPO让小模型称霸推理

32B击败DeepSeek-R1、o3-mini,成本暴降100倍!GRPO让小模型称霸推理

32B击败DeepSeek-R1、o3-mini,成本暴降100倍!GRPO让小模型称霸推理

32B小模型在超硬核「时间线索」推理谜题中,一举击败了o1、o3-mini、DeepSeek-R1,核心秘密武器便是GRPO,最关键的是训练成本暴降100倍。

来自主题: AI技术研报
9514 点击    2025-03-09 10:32
7B级形式化推理与验证小模型,媲美满血版DeepSeek-R1,全面开源!

7B级形式化推理与验证小模型,媲美满血版DeepSeek-R1,全面开源!

7B级形式化推理与验证小模型,媲美满血版DeepSeek-R1,全面开源!

随着 DeepSeek-R1 的流行与 AI4Math 研究的深入,大模型在辅助形式化证明写作方面的需求日益增长。作为数学推理最直接的应用场景,形式化推理与验证(formal reasoning and verification),也获得持续关注。

来自主题: AI技术研报
4905 点击    2025-03-09 10:31
解构Manus AI:这是通用Agent革命,还是精巧缝合怪?

解构Manus AI:这是通用Agent革命,还是精巧缝合怪?

解构Manus AI:这是通用Agent革命,还是精巧缝合怪?

自媒体的反应堪称狂热:“通用Agent终于实现了!”“这是继DeepSeek之后的又一技术革命!”这样夸张的赞誉随处可见。从Benchmark来看,它的表现确实非常亮眼,在GAIA测试中超越了之前的各种Agent以及OpenAI的DeepResearch。

来自主题: AI技术研报
8478 点击    2025-03-09 02:07
字节跳动Trae一手实测来了,懂编程也懂中文用户的AI IDE

字节跳动Trae一手实测来了,懂编程也懂中文用户的AI IDE

字节跳动Trae一手实测来了,懂编程也懂中文用户的AI IDE

前些天,字节跳动的 AI IDE 产品 Trae 上线了国内版本,其具备「中文语境深度适配 + 全功能免费开放」的双重杀手锏,一上线就收获了不少支持者。全网一片夸赞,很少能看见批评的声音。

来自主题: AI技术研报
9922 点击    2025-03-08 13:58
谁是最强AI研究助手?Meta等提出全新基准MLGym:LLM智能体大排名

谁是最强AI研究助手?Meta等提出全新基准MLGym:LLM智能体大排名

谁是最强AI研究助手?Meta等提出全新基准MLGym:LLM智能体大排名

AI研究智能体全新升级!Meta等推出MLGym,一个专门用于评估和开发LLM智能体的Gym环境。MLGym提供了标准化的基准测试,让LLM智能体在多任务挑战中展现真正实力。

来自主题: AI技术研报
8081 点击    2025-03-08 13:47
英伟达提出首个Mamba-Transformer视觉骨干网络!打破精度/吞吐瓶颈 | CVPR 2025

英伟达提出首个Mamba-Transformer视觉骨干网络!打破精度/吞吐瓶颈 | CVPR 2025

英伟达提出首个Mamba-Transformer视觉骨干网络!打破精度/吞吐瓶颈 | CVPR 2025

CVPR 2025,混合新架构MambaVision来了!Mamba+Transformer混合架构专门为CV应用设计。MambaVision 在Top-1精度和图像吞吐量方面实现了新的SOTA,显著超越了基于Transformer和Mamba的模型。

来自主题: AI技术研报
8059 点击    2025-03-08 13:10
7B的DeepSeek蒸馏Qwen数学超o1!在测试时间强化学习,MIT积分题大赛考93分

7B的DeepSeek蒸馏Qwen数学超o1!在测试时间强化学习,MIT积分题大赛考93分

7B的DeepSeek蒸馏Qwen数学超o1!在测试时间强化学习,MIT积分题大赛考93分

见识过32B的QwQ追平671的DeepSeek R1后——刚刚,7B的DeepSeek蒸馏Qwen模型超越o1又是怎么一回事?新方法LADDER,通过递归问题分解实现AI模型的自我改进,同时不需要人工标注数据。

来自主题: AI技术研报
5015 点击    2025-03-08 10:38
无需大量标注也能理解3D!新研究登上ICLR 2025 Spotlight

无需大量标注也能理解3D!新研究登上ICLR 2025 Spotlight

无需大量标注也能理解3D!新研究登上ICLR 2025 Spotlight

来自哥本哈根大学、苏黎世联邦理工学院等机构的研究人员,提出了一个全新的多模态Few-shot 3D分割设定和创新方法。无需额外标注成本,该方法就可以融合文本、2D和3D信息,让模型迅速掌握新类别。

来自主题: AI技术研报
3874 点击    2025-03-08 09:45
微软GUI智能体OmniParser二代开源!推理延迟降低60%,大模型玩手机更溜了

微软GUI智能体OmniParser二代开源!推理延迟降低60%,大模型玩手机更溜了

微软GUI智能体OmniParser二代开源!推理延迟降低60%,大模型玩手机更溜了

OmniParser V2可将屏幕截图转换为结构化元素,帮助LLM理解和操作GUI;在检测小图标和推理速度上显著提升,延迟降低60%,与多种LLM结合后表现优异。

来自主题: AI技术研报
8431 点击    2025-03-07 16:14
CVPR 2025|北大开源多模态驱动的定制化漫画生成框架DiffSensei,还有4.3万页漫画数据集

CVPR 2025|北大开源多模态驱动的定制化漫画生成框架DiffSensei,还有4.3万页漫画数据集

CVPR 2025|北大开源多模态驱动的定制化漫画生成框架DiffSensei,还有4.3万页漫画数据集

北京大学、上海人工智能实验室、南洋理工大学联合推出 DiffSensei,首个结合多模态大语言模型(MLLM)与扩散模型的定制化漫画生成框架。该框架通过创新的掩码交叉注意力机制与文本兼容的角色适配器,实现了对多角色外观、表情、动作的精确控制

来自主题: AI技术研报
8725 点击    2025-03-07 14:15
风格迁移重大突破!西湖大学等提出StyleStudio攻克「过拟合」难题 | CVPR 2025

风格迁移重大突破!西湖大学等提出StyleStudio攻克「过拟合」难题 | CVPR 2025

风格迁移重大突破!西湖大学等提出StyleStudio攻克「过拟合」难题 | CVPR 2025

StyleStudio能解决风格迁移中风格过拟合、文本对齐差和图像不稳定的问题,通过跨模态AdaIN技术融合文本和风格特征、用教师模型稳定布局、引入基于风格的无分类器引导,实现精准控制风格元素,提升生成图像的质量和稳定性,无需额外训练,使用门槛更低!

来自主题: AI技术研报
2949 点击    2025-03-07 11:04
开启空间智能问答新时代:Spatial-RAG框架来了

开启空间智能问答新时代:Spatial-RAG框架来了

开启空间智能问答新时代:Spatial-RAG框架来了

当涉及到空间推理任务时,LLMs 的表现却显得力不从心。空间推理不仅要求模型理解复杂的空间关系,还需要结合地理数据和语义信息,生成准确的回答。为了突破这一瓶颈,研究人员推出了 Spatial Retrieval-Augmented Generation (Spatial-RAG)—— 一个革命性的框架,旨在增强 LLMs 在空间推理任务中的能力。

来自主题: AI技术研报
5540 点击    2025-03-07 10:34
智源BGE-VL拍照提问即可精准搜,1/70数据击穿多模态检索天花板!

智源BGE-VL拍照提问即可精准搜,1/70数据击穿多模态检索天花板!

智源BGE-VL拍照提问即可精准搜,1/70数据击穿多模态检索天花板!

智源联手多所顶尖高校发布的多模态向量模型BGE-VL,重塑了AI检索领域的游戏规则。它凭借独创的MegaPairs合成数据技术,在图文检索、组合图像检索等多项任务中,横扫各大基准刷新SOTA。

来自主题: AI技术研报
4122 点击    2025-03-07 10:34
阿里千问QwQ-32B推理模型开源,比肩671B满血DeepSeek-R1!笔记本就能跑

阿里千问QwQ-32B推理模型开源,比肩671B满血DeepSeek-R1!笔记本就能跑

阿里千问QwQ-32B推理模型开源,比肩671B满血DeepSeek-R1!笔记本就能跑

仅用32B,就击败o1-mini追平671B满血版DeepSeek-R1!阿里深夜重磅发布的QwQ-32B,再次让全球开发者陷入狂欢:消费级显卡就能跑,还一下子干到推理模型天花板!

来自主题: AI技术研报
5329 点击    2025-03-07 10:28
DeepSeek的MLA,任意大模型都能轻松迁移了

DeepSeek的MLA,任意大模型都能轻松迁移了

DeepSeek的MLA,任意大模型都能轻松迁移了

DeepSeek-R1 作为 AI 产业颠覆式创新的代表轰动了业界,特别是其训练与推理成本仅为同等性能大模型的数十分之一。多头潜在注意力网络(Multi-head Latent Attention, MLA)是其经济推理架构的核心之一,通过对键值缓存进行低秩压缩,显著降低推理成本 [1]。

来自主题: AI技术研报
5236 点击    2025-03-07 10:24
GPT 5/o3欠拟合与过拟合详细分析与深度思考(三万字超长洞察,慎入)

GPT 5/o3欠拟合与过拟合详细分析与深度思考(三万字超长洞察,慎入)

GPT 5/o3欠拟合与过拟合详细分析与深度思考(三万字超长洞察,慎入)

当模型复杂度增加到一定程度后,模型开始对训练数据中的噪声和异常值进行拟合,而不是仅仅学习数据中的真实模式。这导致模型在训练数据上表现得非常好,但在新的数据上表现不佳,因为新的数据中噪声和异常值的分布与训练数据不同。

来自主题: AI技术研报
8825 点击    2025-03-06 23:31
司南首期多模态模型闭源榜单发布!48个模型同台竞技,谁将脱颖而出?

司南首期多模态模型闭源榜单发布!48个模型同台竞技,谁将脱颖而出?

司南首期多模态模型闭源榜单发布!48个模型同台竞技,谁将脱颖而出?

基于闭源评测基准,近期司南针对国内外主流多模态大模型进行了全面评测,现公布司南首期多模态模型闭源评测榜单。首期榜单共包含 48 个多模态模型,其中包含:3 个国内 API 模型:GLM-4v-Plus-20250111 (智谱),Step-1o (阶跃),BailingMM-Pro-0120 (蚂蚁)

来自主题: AI技术研报
8864 点击    2025-03-06 19:45
AI话痨终结者!UCSD清华提出「思维扫描术」Dynasor-CoT,推理巨省token

AI话痨终结者!UCSD清华提出「思维扫描术」Dynasor-CoT,推理巨省token

AI话痨终结者!UCSD清华提出「思维扫描术」Dynasor-CoT,推理巨省token

推理模型在复杂任务上表现惊艳,缺点是低下的token效率。UCSD清华等机构的研究人员发现,问题根源在于模型的「自我怀疑」!研究团队提出了Dynasor-CoT,一种无需训练、侵入性小且简单的方法。

来自主题: AI技术研报
8483 点击    2025-03-06 17:15
智源开源多模态向量模型BGE-VL:多模态检索新突破

智源开源多模态向量模型BGE-VL:多模态检索新突破

智源开源多模态向量模型BGE-VL:多模态检索新突破

BGE 系列模型自发布以来广受社区好评。近日,智源研究院联合多所高校开发了多模态向量模型 BGE-VL,进一步扩充了原有生态体系。

来自主题: AI技术研报
7572 点击    2025-03-06 17:05
谷歌最新PlanGEN框架,开发自适应Multi-Agent,错过太可惜,不用邀请码

谷歌最新PlanGEN框架,开发自适应Multi-Agent,错过太可惜,不用邀请码

谷歌最新PlanGEN框架,开发自适应Multi-Agent,错过太可惜,不用邀请码

Agent这两天随着邀请码进入公众视野,展示了不凡的推理能力。然而,当面对需要精确规划和深度推理的复杂问题时,即使是最先进的LLMs也常常力不从心。Google研究团队提出的PlanGEN框架,正是为解决这一挑战而生。

来自主题: AI技术研报
3262 点击    2025-03-06 16:55
ET-SEED:提升机器人操作泛化能力的高效等变扩散策略

ET-SEED:提升机器人操作泛化能力的高效等变扩散策略

ET-SEED:提升机器人操作泛化能力的高效等变扩散策略

本文提出了一种轨迹级别 SE (3) 等变的扩散策略(ET-SEED),通过将等变表示学习和扩散策略结合,使机器人能够在极少的示范数据下高效学习复杂操作技能,并能够泛化到不同物体姿态和环境中。

来自主题: AI技术研报
4124 点击    2025-03-06 15:24
360智脑开源Light-R1!1000美元数学上首次从零超越DeepSeek-R1-Distill

360智脑开源Light-R1!1000美元数学上首次从零超越DeepSeek-R1-Distill

360智脑开源Light-R1!1000美元数学上首次从零超越DeepSeek-R1-Distill

2025 年 3 月 4 日,360 智脑开源了 Light-R1-32B 模型,以及全部训练数据、代码。仅需 12 台 H800 上 6 小时即可训练完成,从没有长思维链的 Qwen2.5-32B-Instruct 出发,仅使用 7 万条数学数据训练,得到 Light-R1-32B

来自主题: AI技术研报
5299 点击    2025-03-06 11:13
用AgenticLU长上下文理解,LLM澄清链CoC实现自学,答案召回率高达97.8% | 最新

用AgenticLU长上下文理解,LLM澄清链CoC实现自学,答案召回率高达97.8% | 最新

用AgenticLU长上下文理解,LLM澄清链CoC实现自学,答案召回率高达97.8% | 最新

LLM一个突出的挑战是如何有效处理和理解长文本。就像下图所示,准确率会随着上下文长度显著下降,那么究竟应该怎样提升LLM对长文本理解的准确率呢?

来自主题: AI技术研报
7508 点击    2025-03-06 09:54
上海AI Lab最新推出Mixture-of-Memories:线性注意力也有稀疏记忆了

上海AI Lab最新推出Mixture-of-Memories:线性注意力也有稀疏记忆了

上海AI Lab最新推出Mixture-of-Memories:线性注意力也有稀疏记忆了

回顾 AGI 的爆发,从最初的 pre-training (model/data) scaling,到 post-training (SFT/RLHF) scaling,再到 reasoning (RL) scaling,找到正确的 scaling 维度始终是问题的本质。

来自主题: AI技术研报
4484 点击    2025-03-06 09:46