AI技术研报-这里有最前沿的人工智能技术解读

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
攻克AI过度思考难题!美团新研究让通过“可验证”过程奖励激活LRM的高效推理

攻克AI过度思考难题!美团新研究让通过“可验证”过程奖励激活LRM的高效推理

攻克AI过度思考难题!美团新研究让通过“可验证”过程奖励激活LRM的高效推理

LRM通过简单却有效的RLVR范式,培养了强大的CoT推理能力,但伴随而来的冗长的输出内容,不仅显著增加推理开销,还会影响服务的吞吐量,这种消磨用户耐心的现象被称为“过度思考”问题。

来自主题: AI技术研报
9244 点击    2025-09-12 10:47
你知道吗?相较于产生幻觉,LLM其实更会「说谎」|卡梅隆最新

你知道吗?相较于产生幻觉,LLM其实更会「说谎」|卡梅隆最新

你知道吗?相较于产生幻觉,LLM其实更会「说谎」|卡梅隆最新

幻觉并非什么神秘现象,而是现代语言模型训练和评估方式下必然的统计结果。它是一种无意的、因不确定而产生的错误。根据OpenAI9月4号论文的证明,模型产生幻觉(Hallucination),是一种系统性缺陷。

来自主题: AI技术研报
7888 点击    2025-09-12 10:41
万字追问:AI开始超越人类,我们如何处理新的「哥白尼创伤」?

万字追问:AI开始超越人类,我们如何处理新的「哥白尼创伤」?

万字追问:AI开始超越人类,我们如何处理新的「哥白尼创伤」?

唱衰人工智能不会带来更好的明天 —— 构建于人工智能之上的未来世界既非乌托邦,也非反乌托邦,而是充满无限奇幻可能的。

来自主题: AI技术研报
6996 点击    2025-09-12 10:26
成立7个月首发声!百亿美金独角兽万字雄文:攻克LLM推理非确定性难题

成立7个月首发声!百亿美金独角兽万字雄文:攻克LLM推理非确定性难题

成立7个月首发声!百亿美金独角兽万字雄文:攻克LLM推理非确定性难题

Thinking Machines Lab成立7个月,估值120亿美元,首次公开研究成果:LLM每次回答不一样的真凶——kernel缺乏批处理不变性。Lilian Weng更是爆猛料:首代旗舰叫 Connection Machine,还有更多在路上。

来自主题: AI技术研报
7212 点击    2025-09-11 19:54
AI胡说八道这事,终于有人管了?

AI胡说八道这事,终于有人管了?

AI胡说八道这事,终于有人管了?

想象一下,如果 ChatGPT 等 AI 大模型在生成的时候,能把自己不确定的地方都标记出来,你会不会对它们生成的答案放心很多?

来自主题: AI技术研报
9370 点击    2025-09-11 19:34
李飞飞一年前究竟说了啥?怎么又火了

李飞飞一年前究竟说了啥?怎么又火了

李飞飞一年前究竟说了啥?怎么又火了

大语言模型的局限在哪里?

来自主题: AI技术研报
9346 点击    2025-09-11 19:26
交互扩展时代来临:创智复旦字节重磅发布AgentGym-RL,昇腾加持,开创智能体训练新范式

交互扩展时代来临:创智复旦字节重磅发布AgentGym-RL,昇腾加持,开创智能体训练新范式

交互扩展时代来临:创智复旦字节重磅发布AgentGym-RL,昇腾加持,开创智能体训练新范式

强化学习之父、2024 年 ACM 图灵奖得主 Richard Sutton 曾指出,人工智能正在迈入「经验时代」—— 在这个时代,真正的智能不再仅仅依赖大量标注数据的监督学习,而是来源于在真实环境中主动探索、不断积累经验的能力。

来自主题: AI技术研报
7647 点击    2025-09-11 18:53
她们估值840亿,刚发了第一个AI成果

她们估值840亿,刚发了第一个AI成果

她们估值840亿,刚发了第一个AI成果

刚刚,0产出估值就已冲破120亿美元的Thinking Machines,终于发布首篇研究博客。

来自主题: AI技术研报
6557 点击    2025-09-11 17:21
Jina Code Embeddings: 为高质量代码搜索而生的0.5B/1.5B向量模型

Jina Code Embeddings: 为高质量代码搜索而生的0.5B/1.5B向量模型

Jina Code Embeddings: 为高质量代码搜索而生的0.5B/1.5B向量模型

我们今天正式开源 jina-code-embeddings,一套全新的代码向量模型。包含 0.5B 和 1.5B 两种参数规模,并同步推出了 1-4 bit 的 GGUF 量化版本,方便在各类端侧硬件上部署。

来自主题: AI技术研报
9233 点击    2025-09-11 16:01
弃坑Claude!亲测CodeBuddy Code:单人2小时,从0搭建部署电商推荐系统

弃坑Claude!亲测CodeBuddy Code:单人2小时,从0搭建部署电商推荐系统

弃坑Claude!亲测CodeBuddy Code:单人2小时,从0搭建部署电商推荐系统

作为一名有着8年全栈开发经验的技术人员,我最近接手了一个具有挑战性的项目:为某中型服装电商平台开发一套智能商品推荐系统。该系统需要在2个月内完成,包含以下核心功能:

来自主题: AI技术研报
8348 点击    2025-09-11 12:42
CoRL 2025 | 港大InfoBodied AI团队首发具身表征新范式,构建任务自适应的感知框架

CoRL 2025 | 港大InfoBodied AI团队首发具身表征新范式,构建任务自适应的感知框架

CoRL 2025 | 港大InfoBodied AI团队首发具身表征新范式,构建任务自适应的感知框架

在具身智能中,策略学习通常需要依赖场景表征(scene representation)。然而,大多数现有多任务操作方法中的表征提取过程都是任务无关的(task-agnostic):

来自主题: AI技术研报
8736 点击    2025-09-11 10:08
意识智能体:大模型的下一个进化方向?

意识智能体:大模型的下一个进化方向?

意识智能体:大模型的下一个进化方向?

机器具备意识吗?本文对AI意识(AI consciousness)进行了考察,特别是深入探讨了大语言模型作为高级计算模型实例是否具备意识,以及AI意识的必要和充分条件。

来自主题: AI技术研报
8477 点击    2025-09-11 09:55
=COPILOT()函数横空出世!AI自动写公式效率起飞,网友:让Excel再次伟大

=COPILOT()函数横空出世!AI自动写公式效率起飞,网友:让Excel再次伟大

=COPILOT()函数横空出世!AI自动写公式效率起飞,网友:让Excel再次伟大

苦等多年,Excel终于长大了!全新COPILOT函数神器,直接把AI塞进了表格,不论是整理数据、头脑风暴,还是分类反馈,通通一键搞定,打工人效率直接原地起飞。

来自主题: AI技术研报
8922 点击    2025-09-10 13:28
通用问题求解器雏形已现!谷歌DeepMind重磅研究,自主发现40种全新算法

通用问题求解器雏形已现!谷歌DeepMind重磅研究,自主发现40种全新算法

通用问题求解器雏形已现!谷歌DeepMind重磅研究,自主发现40种全新算法

在现代科学中,几乎所有领域都依赖软件来进行计算实验。但开发这些专用的科学软件是一个非常缓慢、乏味且困难的过程,开发和测试一个新想法(一次“试错”)需要编写复杂的软件,这个过程可能耗费数周、数月甚至数年。

来自主题: AI技术研报
8722 点击    2025-09-10 12:15
从第一性原理出发的RAG推理新范式来了,蚂蚁DIVER登顶权威基准

从第一性原理出发的RAG推理新范式来了,蚂蚁DIVER登顶权威基准

从第一性原理出发的RAG推理新范式来了,蚂蚁DIVER登顶权威基准

在当前由大语言模型(LLM)驱动的技术范式中,检索增强生成(RAG)已成为提升模型知识能力与缓解「幻觉」的核心技术。然而,现有 RAG 系统在面对需多步逻辑推理任务时仍存在显著局限,具体挑战如下:

来自主题: AI技术研报
9107 点击    2025-09-10 11:07
Meta超级智能实验室首篇论文:重新定义RAG

Meta超级智能实验室首篇论文:重新定义RAG

Meta超级智能实验室首篇论文:重新定义RAG

Meta超级智能实验室的首篇论文,来了—— 提出了一个名为REFRAG的高效解码框架,重新定义了RAG(检索增强生成),最高可将首字生成延迟(TTFT)加速30倍。

来自主题: AI技术研报
8192 点击    2025-09-09 13:09
Claude Code的Sub-agents,烧了1000 美金才知道的血泪经验

Claude Code的Sub-agents,烧了1000 美金才知道的血泪经验

Claude Code的Sub-agents,烧了1000 美金才知道的血泪经验

自从 Claude code 上线 sub-agents 后,我一直对其抱很大的期待,每次做 case 都会搭建一支“AI coding 梦之队”。想象中,它们会在主 agent的协调下火力全开, 完成我超级复杂的需求。

来自主题: AI技术研报
8550 点击    2025-09-09 11:27
从「会说」迈向「会做」,LLM下半场:Agentic强化学习范式综述

从「会说」迈向「会做」,LLM下半场:Agentic强化学习范式综述

从「会说」迈向「会做」,LLM下半场:Agentic强化学习范式综述

过去几年,大语言模型(LLM)的训练大多依赖于基于人类或数据偏好的强化学习(Preference-based Reinforcement Fine-tuning, PBRFT):输入提示、输出文本、获得一个偏好分数。这一范式催生了 GPT-4、Llama-3 等成功的早期大模型,但局限也日益明显:缺乏长期规划、环境交互与持续学习能力。

来自主题: AI技术研报
8255 点击    2025-09-09 10:49
全流程国产GPU,上下文提速100倍!中国科学院发布「线性复杂度」类脑大模型

全流程国产GPU,上下文提速100倍!中国科学院发布「线性复杂度」类脑大模型

全流程国产GPU,上下文提速100倍!中国科学院发布「线性复杂度」类脑大模型

SpikingBrain借鉴大脑信息处理机制,具有线性/近线性复杂度,在超长序列上具有显著速度优势,在GPU上1M长度下TTFT 速度相比主流大模型提升26.5x, 4M长度下保守估计速度提升超过100x;

来自主题: AI技术研报
6134 点击    2025-09-09 10:25
不微调,让LLM推理准确率暴增到99%!试下DeepConf,一个轻量级推理框架|Meta最新

不微调,让LLM推理准确率暴增到99%!试下DeepConf,一个轻量级推理框架|Meta最新

不微调,让LLM推理准确率暴增到99%!试下DeepConf,一个轻量级推理框架|Meta最新

在大型语言模型(LLM)进行数学题、逻辑推理等复杂任务时,一个非常流行且有效的方法叫做 “自洽性”(Self-Consistency),通常也被称为“平行思考”。

来自主题: AI技术研报
6077 点击    2025-09-09 10:17