AI资讯新闻榜单内容搜索-语言模型

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 语言模型
超全推理语言模型蓝图来了!揭开o1、o3、DeepSeek-V3神秘面纱

超全推理语言模型蓝图来了!揭开o1、o3、DeepSeek-V3神秘面纱

超全推理语言模型蓝图来了!揭开o1、o3、DeepSeek-V3神秘面纱

ETH Zurich等机构提出了推理语言模型(RLM)蓝图,超越LLM局限,更接近AGI,有望人人可用o3这类强推理模型。

来自主题: AI技术研报
7181 点击    2025-01-28 12:20
六大维度,LLM「问题生成」首次正面PK人类!伯克利等发布最新研究

六大维度,LLM「问题生成」首次正面PK人类!伯克利等发布最新研究

六大维度,LLM「问题生成」首次正面PK人类!伯克利等发布最新研究

研究人员首次探讨了大型语言模型(LLMs)在问题生成任务中的表现,与人类生成的问题进行了多维度对比,结果发现LLMs倾向于生成需要较长描述性答案的问题,且在问题生成中对上下文的关注更均衡。

来自主题: AI技术研报
7195 点击    2025-01-27 13:26
推理模型规划任务成功率从5%到95%,DeepMind遗传算法新研究火了

推理模型规划任务成功率从5%到95%,DeepMind遗传算法新研究火了

推理模型规划任务成功率从5%到95%,DeepMind遗传算法新研究火了

瞄准推理时扩展(Inference-time scaling),DeepMind新的进化搜索策略火了! 所提出的“Mind Evolution”(思维进化),能够优化大语言模型(LLMs)在规划和推理中的响应。

来自主题: AI技术研报
8883 点击    2025-01-24 15:05
AI模拟社会的“幕后”操控者是谁?

AI模拟社会的“幕后”操控者是谁?

AI模拟社会的“幕后”操控者是谁?

设想一场高度智能的模拟游戏,游戏的角色不再是普通的NPC,而是由大语言模型驱动的智能体。在这其中,悄然生出一个趣事——在人类的设计下,这些新NPC的言行不经意间变得过于啰嗦。

来自主题: AI技术研报
6858 点击    2025-01-21 10:42
理解李继刚提示词的关键绝不在于lisp语言

理解李继刚提示词的关键绝不在于lisp语言

理解李继刚提示词的关键绝不在于lisp语言

李继刚在消失半年后,带着汉语新解重新归来,一出手大家就惊呼李继刚的prompt已经到了next level。但不懂编程的小白又懵逼了!怎么提示词也开始编程了?大语言模型的优势不是通过说话就能达成需求吗?怎么又开始需要编程了?技术在倒退吗?

来自主题: AI技术研报
6480 点击    2025-01-21 10:25
选LLM-Judge评估,用这个可证明的人类对齐评估框架, ICLR2025匿名论文

选LLM-Judge评估,用这个可证明的人类对齐评估框架, ICLR2025匿名论文

选LLM-Judge评估,用这个可证明的人类对齐评估框架, ICLR2025匿名论文

在当今AI技术迅猛发展的背景下,大语言模型(LLM)的评估问题已成为一个不可忽视的挑战。传统的做法是直接采用最强大的模型(如GPT-4)进行评估,这就像让最高法院的大法官直接处理所有交通违章案件一样,既不经济也不一定总能保证公正。

来自主题: AI技术研报
5752 点击    2025-01-20 10:50
「完美的搜索引擎」是否存在?这家公司向谷歌发起挑战

「完美的搜索引擎」是否存在?这家公司向谷歌发起挑战

「完美的搜索引擎」是否存在?这家公司向谷歌发起挑战

大型语言模型(LLMs)能够解决研究生水平的数学问题,但今天的搜索引擎却无法准确理解一个简单的三词短语。

来自主题: AI资讯
6744 点击    2025-01-18 15:04
视觉语言模型安全升级,还不牺牲性能!技术解读一文看懂|淘天MMLab南大重大出品

视觉语言模型安全升级,还不牺牲性能!技术解读一文看懂|淘天MMLab南大重大出品

视觉语言模型安全升级,还不牺牲性能!技术解读一文看懂|淘天MMLab南大重大出品

模型安全和可靠性、系统整合和互操作性、用户交互和认证…… 当“多模态”“跨模态”成为不可阻挡的AI趋势时,多模态场景下的安全挑战尤其应当引发产学研各界的注意。

来自主题: AI技术研报
8123 点击    2025-01-18 10:48
阶跃公开了自家新型注意力机制:KV缓存消耗直降93.7%,性能不减反增

阶跃公开了自家新型注意力机制:KV缓存消耗直降93.7%,性能不减反增

阶跃公开了自家新型注意力机制:KV缓存消耗直降93.7%,性能不减反增

随着当前大语言模型的广泛应用和推理时扩展的新范式的崛起,如何实现高效的大规模推理成为了一个巨大挑战。特别是在语言模型的推理阶段,传统注意力机制中的键值缓存(KV Cache)会随着批处理大小和序列长度线性增长,俨然成为制约大语言模型规模化应用和推理时扩展的「内存杀手」。

来自主题: AI技术研报
6940 点击    2025-01-18 09:57
微软最新复杂推理:基于过程奖励的LE-MCTS集成新方法

微软最新复杂推理:基于过程奖励的LE-MCTS集成新方法

微软最新复杂推理:基于过程奖励的LE-MCTS集成新方法

在人工智能快速发展的今天,大型语言模型(LLM)在各类任务中展现出惊人的能力。然而,当面对需要复杂推理的任务时,即使是最先进的开源模型也往往难以保持稳定的表现。现有的模型集成方法,无论是在词元层面还是输出层面的集成,都未能有效解决这一挑战。

来自主题: AI技术研报
5451 点击    2025-01-17 10:36