AI资讯新闻榜单内容搜索-语言模型

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 语言模型
ICML 2025 | 长视频理解新SOTA!蚂蚁&人大开源ViLAMP-7B,单卡可处理3小时视频

ICML 2025 | 长视频理解新SOTA!蚂蚁&人大开源ViLAMP-7B,单卡可处理3小时视频

ICML 2025 | 长视频理解新SOTA!蚂蚁&人大开源ViLAMP-7B,单卡可处理3小时视频

在视觉语言模型(Vision-Language Models,VLMs)取得突破性进展的当下,长视频理解的挑战显得愈发重要。以标准 24 帧率的标清视频为例,仅需数分钟即可产生逾百万的视觉 token,这已远超主流大语言模型 4K-128K 的上下文处理极限。

来自主题: AI技术研报
4946 点击    2025-05-13 08:54
RL训练总崩溃?R1-Reward稳定解锁奖励模型Long-Cot推理能力

RL训练总崩溃?R1-Reward稳定解锁奖励模型Long-Cot推理能力

RL训练总崩溃?R1-Reward稳定解锁奖励模型Long-Cot推理能力

多模态奖励模型(MRMs)在提升多模态大语言模型(MLLMs)的表现中起着至关重要的作用,在训练阶段可以提供稳定的 reward,评估阶段可以选择更好的 sample 结果,甚至单独作为 evaluator。

来自主题: AI技术研报
7206 点击    2025-05-12 14:51
斯坦福的以弱驭强W4S,用Meta-Agent驾驭更强的LLM,准确率提升至95.4% | 最新

斯坦福的以弱驭强W4S,用Meta-Agent驾驭更强的LLM,准确率提升至95.4% | 最新

斯坦福的以弱驭强W4S,用Meta-Agent驾驭更强的LLM,准确率提升至95.4% | 最新

本文详细介绍了斯坦福大学最新提出的"以弱驭强"(W4S)范式,这一创新方法通过训练轻量级的弱模型来优化强大语言模型的工作流。核心亮点包括:

来自主题: AI技术研报
7968 点击    2025-05-12 10:10
独立游戏小团队也能在GDC开讲座?|AI原生游戏《1001夜》在旧金山的1周收获

独立游戏小团队也能在GDC开讲座?|AI原生游戏《1001夜》在旧金山的1周收获

独立游戏小团队也能在GDC开讲座?|AI原生游戏《1001夜》在旧金山的1周收获

一个月前,在旧金山全球游戏开发者大会上,AI原生独立游戏《1001夜》的制作人担任GDC Al Summit的演讲者,分享游戏中大语言模型驱动的核心玩法设计,与世界各地的游戏开发者进行了深入的交流。

来自主题: AI资讯
7937 点击    2025-05-11 14:27
ICML 2025 | 清华、上海AI Lab等提出傅里叶位置编码,多项任务远超RoPE

ICML 2025 | 清华、上海AI Lab等提出傅里叶位置编码,多项任务远超RoPE

ICML 2025 | 清华、上海AI Lab等提出傅里叶位置编码,多项任务远超RoPE

长文本能力对语言模型(LM,Language Model)尤为重要,试想,如果 LM 可以处理无限长度的输入文本,我们可以预先把所有参考资料都喂给 LM,或许 LM 在应对人类的提问时就会变得无所不能。

来自主题: AI技术研报
7904 点击    2025-05-09 10:42
尤雨溪宣布:Vue 生态正式引入 AI!

尤雨溪宣布:Vue 生态正式引入 AI!

尤雨溪宣布:Vue 生态正式引入 AI!

在前端开发领域,Vue 框架一直以其易用性和灵活性受到广大开发者的喜爱。而如今,Vue 生态在人工智能(AI)领域的应用上又迈出了重要的一步。尤雨溪近日宣布,Vue、Vite 和 Rolldown 的文档网站均已添加了llms.txt文件,这一举措旨在让大型语言模型(LLM)更方便地理解这些前端技术。

来自主题: AI资讯
8110 点击    2025-05-08 09:38
VDC+VBench双榜第一!强化学习打磨的国产视频大模型,超越Sora、Pika

VDC+VBench双榜第一!强化学习打磨的国产视频大模型,超越Sora、Pika

VDC+VBench双榜第一!强化学习打磨的国产视频大模型,超越Sora、Pika

随着 Deepseek 等强推理模型的成功,强化学习在大语言模型训练中越来越重要,但在视频生成领域缺少探索。复旦大学等机构将强化学习引入到视频生成领域,经过强化学习优化的视频生成模型,生成效果更加自然流畅,更加合理。并且分别在 VDC(Video Detailed Captioning)[1] 和 VBench [2] 两大国际权威榜单中斩获第一。

来自主题: AI技术研报
8190 点击    2025-05-06 15:07
想去哪就去哪!FindAnything:基于CLIP的开放词汇三维建图,实现真正的“按需探索”

想去哪就去哪!FindAnything:基于CLIP的开放词汇三维建图,实现真正的“按需探索”

想去哪就去哪!FindAnything:基于CLIP的开放词汇三维建图,实现真正的“按需探索”

在复杂、未知的现实环境中,传统导航方法往往依赖闭集语义或事先构建的地图,难以实现真正的“按需探索”。为打破这一瓶颈,本文提出了 FindAnything ——一套融合视觉语言模型的对象为中心、开放词汇三维建图与探索系统。

来自主题: AI技术研报
4743 点击    2025-05-06 10:23