AI资讯新闻榜单内容搜索-LLM

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: LLM
LeCun被痛批:你把Meta搞砸了!烧掉千亿算力,自曝折腾20年彻底失败

LeCun被痛批:你把Meta搞砸了!烧掉千亿算力,自曝折腾20年彻底失败

LeCun被痛批:你把Meta搞砸了!烧掉千亿算力,自曝折腾20年彻底失败

「一位顶尖科学家,有数千亿美元的资源,却仍然能把Meta搞砸了!」最近,圈内对LeCun的埋怨和批评,似乎越来越压不住了。有人批评说,Meta之所以溃败,LeCun的教条主义就是罪魁祸首。但LeCun却表示,自己尝试了20年自回归预测,彻底失败了,所以如今才给LLM判死刑!

来自主题: AI技术研报
8974 点击    2025-04-21 10:40
让DeepSeek更可靠!清华提出Hyper-RAG,用超图提升知识建模精准度

让DeepSeek更可靠!清华提出Hyper-RAG,用超图提升知识建模精准度

让DeepSeek更可靠!清华提出Hyper-RAG,用超图提升知识建模精准度

Hyper-RAG利用超图同时捕捉原始数据中的低阶和高阶关联信息,最大限度地减少知识结构化带来的信息丢失,从而减少大型语言模型(LLM)的幻觉。

来自主题: AI技术研报
5984 点击    2025-04-21 10:23
两个脑袋比一个好。自适应Multi-Agent框架M500实现41%的提升。| 最新

两个脑袋比一个好。自适应Multi-Agent框架M500实现41%的提升。| 最新

两个脑袋比一个好。自适应Multi-Agent框架M500实现41%的提升。| 最新

Two Heads are Better Than One"(两个脑袋比一个好/双Agent更优)源自英语中的一句古老谚语。MAS-TTS框架的研究者将这一朴素智慧应用到LLM中,创造性地让多个智能体协同工作,如同专家智囊团。

来自主题: AI技术研报
7436 点击    2025-04-19 13:39
Jeff Dean演讲回顾LLM发展史,Transformer、蒸馏、MoE、思维链等技术都来自谷歌

Jeff Dean演讲回顾LLM发展史,Transformer、蒸馏、MoE、思维链等技术都来自谷歌

Jeff Dean演讲回顾LLM发展史,Transformer、蒸馏、MoE、思维链等技术都来自谷歌

4 月 14 日,谷歌首席科学家 Jeff Dean 在苏黎世联邦理工学院举办的信息学研讨会上发表了一场演讲,主题为「AI 的重要趋势:我们是如何走到今天的,我们现在能做什么,以及我们如何塑造 AI 的未来?」

来自主题: AI技术研报
6986 点击    2025-04-18 14:40
迈向推理时代:900+篇参考文献揭示长链思维的前世今生,最全综述来了

迈向推理时代:900+篇参考文献揭示长链思维的前世今生,最全综述来了

迈向推理时代:900+篇参考文献揭示长链思维的前世今生,最全综述来了

近年来,大模型(Large Language Models, LLMs)在数学、编程等复杂任务上取得突破,OpenAI-o1、DeepSeek-R1 等推理大模型(Reasoning Large Language Models,RLLMs)表现尤为亮眼。但它们为何如此强大呢?

来自主题: AI技术研报
8127 点击    2025-04-16 15:00
AI涌现人类情感!希腊「乐之神」Orpheus开源,单卡可跑语音流式推理

AI涌现人类情感!希腊「乐之神」Orpheus开源,单卡可跑语音流式推理

AI涌现人类情感!希腊「乐之神」Orpheus开源,单卡可跑语音流式推理

开源语音模型Orpheus让LLM涌现出人类情感!在A100 40GB显卡上,30亿参数模型的流式推理速度甚至超过了音频播放速度。甚至可以zero-shot克隆声音。

来自主题: AI技术研报
5955 点击    2025-04-15 15:26
移动GUI智能体迈向实用化!全新验证器架构V-Droid,刷新成功率纪录

移动GUI智能体迈向实用化!全新验证器架构V-Droid,刷新成功率纪录

移动GUI智能体迈向实用化!全新验证器架构V-Droid,刷新成功率纪录

移动GUI自动化智能体V-Droid采用「验证器驱动」架构,通过离散化动作空间并利用LLM评估候选动作,实现了高效决策。在AndroidWorld等多个基准测试中任务成功率分别达到59.5%、38.3%和49%,决策延迟仅0.7秒,接近实时响应。

来自主题: AI技术研报
5966 点击    2025-04-15 14:53
什么样的偏好,才叫好的偏好?——揭秘偏好对齐数据的「三驾马车」

什么样的偏好,才叫好的偏好?——揭秘偏好对齐数据的「三驾马车」

什么样的偏好,才叫好的偏好?——揭秘偏好对齐数据的「三驾马车」

近年来,大语言模型(LLMs)的对齐研究成为人工智能领域的核心挑战之一,而偏好数据集的质量直接决定了对齐的效果。无论是通过人类反馈的强化学习(RLHF),还是基于「RL-Free」的各类直接偏好优化方法(例如 DPO),都离不开高质量偏好数据集的构建。

来自主题: AI技术研报
7018 点击    2025-04-15 14:29
阿里智能化研发起飞!RTP-LLM 实现 Cursor AI 1000 token/s 推理技术揭秘

阿里智能化研发起飞!RTP-LLM 实现 Cursor AI 1000 token/s 推理技术揭秘

阿里智能化研发起飞!RTP-LLM 实现 Cursor AI 1000 token/s 推理技术揭秘

RTP-LLM 是阿里巴巴大模型预测团队开发的高性能 LLM 推理加速引擎。它在阿里巴巴集团内广泛应用,支撑着淘宝、天猫、高德、饿了么等核心业务部门的大模型推理需求。在 RTP-LLM 上,我们实现了一个通用的投机采样框架,支持多种投机采样方法,能够帮助业务有效降低推理延迟以及提升吞吐。

来自主题: AI技术研报
6021 点击    2025-04-14 15:13