AI资讯新闻榜单内容搜索-ACL

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: ACL
ACL 2025 Oral | 你的模型评测搭子上线:Evaluation Agent懂你更懂AI

ACL 2025 Oral | 你的模型评测搭子上线:Evaluation Agent懂你更懂AI

ACL 2025 Oral | 你的模型评测搭子上线:Evaluation Agent懂你更懂AI

怎么快速判断一个生成模型好不好? 最直接的办法当然是 —— 去问一位做图像生成、视频生成、或者专门做评测的朋友。他们懂技术、有经验、眼光毒辣,能告诉你模型到底强在哪、弱在哪,适不适合你的需求。

来自主题: AI技术研报
5846 点击    2025-07-18 11:02
ACL 2025|自我怀疑还是自我纠正?清华团队揭示LLMs反思技术的暗面

ACL 2025|自我怀疑还是自我纠正?清华团队揭示LLMs反思技术的暗面

ACL 2025|自我怀疑还是自我纠正?清华团队揭示LLMs反思技术的暗面

反思技术因其简单性和有效性受到了广泛的研究和应用,具体表现为在大语言模型遇到障碍或困难时,提示其“再想一下”,可以显著提升性能 [1]。然而,2024 年谷歌 DeepMind 的研究人员在一项研究中指出,大模型其实分不清对与错,如果不是仅仅提示模型反思那些它回答错误的问题,这样的提示策略反而可能让模型更倾向于把回答正确的答案改错 [2]。

来自主题: AI技术研报
6233 点击    2025-07-14 15:40
ACL 2025 | 让小说角色 「活」起来!复旦BookWorld打造沉浸式小说世界模拟系统

ACL 2025 | 让小说角色 「活」起来!复旦BookWorld打造沉浸式小说世界模拟系统

ACL 2025 | 让小说角色 「活」起来!复旦BookWorld打造沉浸式小说世界模拟系统

想象为《红楼梦》或《权力的游戏》创造一个AI的世界。书中的角色们变成AI,活在BookWorld当中。每天,他/她们醒来,思考,彼此对话、互动,建立感情和关系。

来自主题: AI技术研报
7028 点击    2025-06-24 15:59
首个全面梳理语音大模型发展脉络的权威综述,入选ACL 2025主会

首个全面梳理语音大模型发展脉络的权威综述,入选ACL 2025主会

首个全面梳理语音大模型发展脉络的权威综述,入选ACL 2025主会

由香港中文大学团队撰写的语音语言模型综述论文《Recent Advances in Speech Language Models: A Survey》已成功被 ACL 2025 主会议接收!这是该领域首个全面系统的综述,为语音 AI 的未来发展指明了方向。

来自主题: AI技术研报
6542 点击    2025-06-17 16:45
通义实验室最新成果WebDancer:开启自主智能Deep Research的新时代

通义实验室最新成果WebDancer:开启自主智能Deep Research的新时代

通义实验室最新成果WebDancer:开启自主智能Deep Research的新时代

作者介绍: 本文作者来自通义实验室 RAG 团队,致力于面向下一代 RAG 技术进行基础研究。该团队 WebWalker 工作近期也被 ACL 2025 main conference 录用。

来自主题: AI技术研报
6238 点击    2025-06-12 15:24
阿里智能体多轮推理超越GPT-4o,开源模型也能做Deep Research

阿里智能体多轮推理超越GPT-4o,开源模型也能做Deep Research

阿里智能体多轮推理超越GPT-4o,开源模型也能做Deep Research

能够完成多步信息检索任务,涵盖多轮推理与连续动作执行的智能体来了。通义实验室推出WebWalker(ACL2025)续作自主信息检索智能体WebDancer。

来自主题: AI技术研报
6011 点击    2025-06-06 16:31
ACL 2025 | 基于Token预算感知的大模型高效推理技术

ACL 2025 | 基于Token预算感知的大模型高效推理技术

ACL 2025 | 基于Token预算感知的大模型高效推理技术

随着大型语言模型(LLM)技术的不断发展,Chain-of-Thought(CoT) 等推理增强方法被提出,以期提升模型在数学题解、逻辑问答等复杂任务中的表现,并通过引导模型逐步思考,有效提高了模型准确率。

来自主题: AI技术研报
5664 点击    2025-06-05 16:14
RMoA残差提取Mixture-of-Agents,让Agent发现新东西,并自适应停止「ACL2025」

RMoA残差提取Mixture-of-Agents,让Agent发现新东西,并自适应停止「ACL2025」

RMoA残差提取Mixture-of-Agents,让Agent发现新东西,并自适应停止「ACL2025」

如果你正在开发Agent产品,一定听过或用过Mixture-of-Agents(MoA)架构。这个让多个AI模型协作解决复杂问题的框架,理论上能够集众家之长,实际使用中却让人又爱又恨:

来自主题: AI技术研报
4853 点击    2025-06-05 10:47
ACL2025 | 传统符号语言传递知识太低效?探索LLM高效参数迁移可行性

ACL2025 | 传统符号语言传递知识太低效?探索LLM高效参数迁移可行性

ACL2025 | 传统符号语言传递知识太低效?探索LLM高效参数迁移可行性

人类的思维是非透明的,没有继承的记忆,因此需要通过语言交流的环境来学习。人类的知识传递长期依赖符号语言:从文字、数学公式到编程代码,我们通过符号系统将知识编码、解码。但这种方式存在天然瓶颈,比如信息冗余、效率低下等。

来自主题: AI技术研报
8048 点击    2025-06-03 14:57