AI资讯新闻榜单内容搜索-LLM

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: LLM
成立7个月首发声!百亿美金独角兽万字雄文:攻克LLM推理非确定性难题

成立7个月首发声!百亿美金独角兽万字雄文:攻克LLM推理非确定性难题

成立7个月首发声!百亿美金独角兽万字雄文:攻克LLM推理非确定性难题

Thinking Machines Lab成立7个月,估值120亿美元,首次公开研究成果:LLM每次回答不一样的真凶——kernel缺乏批处理不变性。Lilian Weng更是爆猛料:首代旗舰叫 Connection Machine,还有更多在路上。

来自主题: AI技术研报
7641 点击    2025-09-11 19:54
她们估值840亿,刚发了第一个AI成果

她们估值840亿,刚发了第一个AI成果

她们估值840亿,刚发了第一个AI成果

刚刚,0产出估值就已冲破120亿美元的Thinking Machines,终于发布首篇研究博客。

来自主题: AI技术研报
6939 点击    2025-09-11 17:21
从第一性原理出发的RAG推理新范式来了,蚂蚁DIVER登顶权威基准

从第一性原理出发的RAG推理新范式来了,蚂蚁DIVER登顶权威基准

从第一性原理出发的RAG推理新范式来了,蚂蚁DIVER登顶权威基准

在当前由大语言模型(LLM)驱动的技术范式中,检索增强生成(RAG)已成为提升模型知识能力与缓解「幻觉」的核心技术。然而,现有 RAG 系统在面对需多步逻辑推理任务时仍存在显著局限,具体挑战如下:

来自主题: AI技术研报
9632 点击    2025-09-10 11:07
从「会说」迈向「会做」,LLM下半场:Agentic强化学习范式综述

从「会说」迈向「会做」,LLM下半场:Agentic强化学习范式综述

从「会说」迈向「会做」,LLM下半场:Agentic强化学习范式综述

过去几年,大语言模型(LLM)的训练大多依赖于基于人类或数据偏好的强化学习(Preference-based Reinforcement Fine-tuning, PBRFT):输入提示、输出文本、获得一个偏好分数。这一范式催生了 GPT-4、Llama-3 等成功的早期大模型,但局限也日益明显:缺乏长期规划、环境交互与持续学习能力。

来自主题: AI技术研报
8860 点击    2025-09-09 10:49
不微调,让LLM推理准确率暴增到99%!试下DeepConf,一个轻量级推理框架|Meta最新

不微调,让LLM推理准确率暴增到99%!试下DeepConf,一个轻量级推理框架|Meta最新

不微调,让LLM推理准确率暴增到99%!试下DeepConf,一个轻量级推理框架|Meta最新

在大型语言模型(LLM)进行数学题、逻辑推理等复杂任务时,一个非常流行且有效的方法叫做 “自洽性”(Self-Consistency),通常也被称为“平行思考”。

来自主题: AI技术研报
6591 点击    2025-09-09 10:17
0.01%参数定生死!苹果揭秘LLM「超级权重」,删掉就会胡说八道

0.01%参数定生死!苹果揭秘LLM「超级权重」,删掉就会胡说八道

0.01%参数定生死!苹果揭秘LLM「超级权重」,删掉就会胡说八道

苹果研究人员发现,在大模型中,极少量的参数,即便只有0.01%,仍可能包含数十万权重,他们将这一发现称为「超级权重」。超级权重点透了大模型「命门」,使大模型走出「炼丹玄学」。

来自主题: AI技术研报
8092 点击    2025-09-06 11:27
隐式推理,继CoT思维链之后,LLM的下一个技术奇点系统性综述来了|港科大最新

隐式推理,继CoT思维链之后,LLM的下一个技术奇点系统性综述来了|港科大最新

隐式推理,继CoT思维链之后,LLM的下一个技术奇点系统性综述来了|港科大最新

您对“思维链”(Chain-of-Thought)肯定不陌生,从最早的GPT-o1到后来震惊世界的Deepseek-R1,它通过让模型输出详细的思考步骤,确实解决了许多复杂的推理问题。但您肯定也为它那冗长的输出、高昂的API费用和感人的延迟头疼过,这些在产品落地时都是实实在在的阻碍。

来自主题: AI技术研报
9447 点击    2025-09-05 10:22