AI资讯新闻榜单内容搜索-LLM

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: LLM
LLM又曝致命缺陷:根本不会看时钟!博士惊呆,准确率不及50%

LLM又曝致命缺陷:根本不会看时钟!博士惊呆,准确率不及50%

LLM又曝致命缺陷:根本不会看时钟!博士惊呆,准确率不及50%

AI能写论文、画图、考高分,但连「看表读时间」「今天是星期几」都错得离谱?最新研究揭示了背后惊人的认知缺陷,提醒我们:AI很强大,但精确推理还离不开人类。

来自主题: AI技术研报
7033 点击    2025-05-19 16:06
PDF文件长出「AI大脑」?网友惊呼:这操作太「黑科技」了!

PDF文件长出「AI大脑」?网友惊呼:这操作太「黑科技」了!

PDF文件长出「AI大脑」?网友惊呼:这操作太「黑科技」了!

你以为PDF只是用来阅读文档的?这次它彻底颠覆了你的想象!极客Aiden Bai最新整活——直接把大语言模型(LLM)塞进PDF里,打开文件就能让AI讲故事、陪你聊天!更夸张的是,连Linux系统都能在PDF里运行。

来自主题: AI资讯
7956 点击    2025-05-16 15:33
GPT-4V仅达Level-2?全球首个多模态通才段位排行榜发布,General-Level打造多模态通用AI评测新范式

GPT-4V仅达Level-2?全球首个多模态通才段位排行榜发布,General-Level打造多模态通用AI评测新范式

GPT-4V仅达Level-2?全球首个多模态通才段位排行榜发布,General-Level打造多模态通用AI评测新范式

多模态大模型(Multimodal Large Language Models, MLLM)正迅速崛起,从只能理解单一模态,到如今可以同时理解和生成图像、文本、音频甚至视频等多种模态。正因如此,在AI竞赛进入“下半场”之际(由最近的OpenAI研究员姚顺雨所引发的共识观点),设计科学的评估机制俨然成为决定胜负的核心关键。

来自主题: AI技术研报
7034 点击    2025-05-16 15:06
NYU教授公布2025机器学习课程大纲:所有人都在追LLM,高校为何死磕基础理论?

NYU教授公布2025机器学习课程大纲:所有人都在追LLM,高校为何死磕基础理论?

NYU教授公布2025机器学习课程大纲:所有人都在追LLM,高校为何死磕基础理论?

最近,Meta 公司首席 AI 科学家、图灵奖得主 LeCun 转发了他在纽约大学的同事 Kyunghyun Cho 的一篇帖子:内容是关于这位教授 2025 学年机器学习研究生课程的教学大纲和讲义。

来自主题: AI资讯
6794 点击    2025-05-13 15:07
RL训练总崩溃?R1-Reward稳定解锁奖励模型Long-Cot推理能力

RL训练总崩溃?R1-Reward稳定解锁奖励模型Long-Cot推理能力

RL训练总崩溃?R1-Reward稳定解锁奖励模型Long-Cot推理能力

多模态奖励模型(MRMs)在提升多模态大语言模型(MLLMs)的表现中起着至关重要的作用,在训练阶段可以提供稳定的 reward,评估阶段可以选择更好的 sample 结果,甚至单独作为 evaluator。

来自主题: AI技术研报
7194 点击    2025-05-12 14:51
斯坦福的以弱驭强W4S,用Meta-Agent驾驭更强的LLM,准确率提升至95.4% | 最新

斯坦福的以弱驭强W4S,用Meta-Agent驾驭更强的LLM,准确率提升至95.4% | 最新

斯坦福的以弱驭强W4S,用Meta-Agent驾驭更强的LLM,准确率提升至95.4% | 最新

本文详细介绍了斯坦福大学最新提出的"以弱驭强"(W4S)范式,这一创新方法通过训练轻量级的弱模型来优化强大语言模型的工作流。核心亮点包括:

来自主题: AI技术研报
7953 点击    2025-05-12 10:10
字节Seed首次开源代码模型,拿下同规模多个SOTA,提出用小模型管理数据范式

字节Seed首次开源代码模型,拿下同规模多个SOTA,提出用小模型管理数据范式

字节Seed首次开源代码模型,拿下同规模多个SOTA,提出用小模型管理数据范式

字节Seed首次开源代码模型!Seed-Coder,8B规模,超越Qwen3,拿下多个SOTA。它证明“只需极少人工参与,LLM就能自行管理代码训练数据”。通过自身生成和筛选高质量训练数据,可大幅提升模型代码生成能力。

来自主题: AI资讯
7850 点击    2025-05-11 15:18
万径归于「概率」,华人学者颠覆认知!英伟达大牛力荐RL微调新作

万径归于「概率」,华人学者颠覆认知!英伟达大牛力荐RL微调新作

万径归于「概率」,华人学者颠覆认知!英伟达大牛力荐RL微调新作

华人学者参与的一项研究,重新确立了强化学习在LLM微调的价值,深度解释了AI训练「两阶段强化学习」的原因。某种意义上,他们的论文说明RL微调就是统计。

来自主题: AI技术研报
8071 点击    2025-05-10 15:10
谷歌DeepMind&CMU:过去引导LLM规划的方法是错的? 用GRASE-DC改进。ICLR2025

谷歌DeepMind&CMU:过去引导LLM规划的方法是错的? 用GRASE-DC改进。ICLR2025

谷歌DeepMind&CMU:过去引导LLM规划的方法是错的? 用GRASE-DC改进。ICLR2025

当您的Agent需要规划多步骤操作以达成目标时,比如游戏策略制定或旅行安排优化等等,传统规划方法往往需要复杂的搜索算法和多轮提示,计算成本高昂且效率不佳。来自Google DeepMind和CMU的研究者提出了一个简单却非常烧脑的问题:我们是否一直在用错误的方式选择示例来引导LLM学习规划?

来自主题: AI技术研报
8997 点击    2025-05-09 11:58