AI资讯新闻榜单内容搜索-语言模型

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 语言模型
告别数据「噪音」,UCSD大模型推理新方法DreamPRM充当「信号放大器」,登顶MathVista测评榜

告别数据「噪音」,UCSD大模型推理新方法DreamPRM充当「信号放大器」,登顶MathVista测评榜

告别数据「噪音」,UCSD大模型推理新方法DreamPRM充当「信号放大器」,登顶MathVista测评榜

使用过程奖励模型(PRM)强化大语言模型的推理能力已在纯文本任务中取得显著成果,但将过程奖励模型扩展至多模态大语言模型(MLLMs)时,面临两大难题:

来自主题: AI技术研报
6538 点击    2025-07-12 11:58
奖励模型也能Scaling!上海AI Lab突破强化学习短板,提出策略判别学习新范式

奖励模型也能Scaling!上海AI Lab突破强化学习短板,提出策略判别学习新范式

奖励模型也能Scaling!上海AI Lab突破强化学习短板,提出策略判别学习新范式

强化学习改变了大语言模型的后训练范式,可以说,已成为AI迈向AGI进程中的关键技术节点。然而,其中奖励模型的设计与训练,始终是制约后训练效果、模型能力进一步提升的瓶颈所在。

来自主题: AI技术研报
5953 点击    2025-07-12 11:51
打破大模型编程「数据污染」与「能力虚胖」困境,Meituan-M17团队构建新一代AI编程评测新标准——OIBench

打破大模型编程「数据污染」与「能力虚胖」困境,Meituan-M17团队构建新一代AI编程评测新标准——OIBench

打破大模型编程「数据污染」与「能力虚胖」困境,Meituan-M17团队构建新一代AI编程评测新标准——OIBench

当前,大语言模型(LLMs)在编程领域的能力受到广泛关注,相关论断在市场中普遍存在,例如 DeepMind 的 AlphaCode 曾宣称达到人类竞技编程选手的水平

来自主题: AI技术研报
8265 点击    2025-07-11 17:05
扩散语言模型写代码!速度比自回归快10倍

扩散语言模型写代码!速度比自回归快10倍

扩散语言模型写代码!速度比自回归快10倍

谁说扩散模型只能生成图像和视频?现在它们能高质量地写代码了,速度还比传统大模型更快!Inception Labs推出基于扩散技术的全新商业级大语言模型——Mercury。

来自主题: AI技术研报
6589 点击    2025-07-11 12:02
单向VLM变双向!人大斯坦福等提出MoCa框架:双向多模态编码器

单向VLM变双向!人大斯坦福等提出MoCa框架:双向多模态编码器

单向VLM变双向!人大斯坦福等提出MoCa框架:双向多模态编码器

MoCa框架把单向视觉语言模型转化为双向多模态嵌入模型,通过持续预训练和异构对比微调,提升模型性能和泛化能力,在多模态基准测试中表现优异,尤其小规模模型性能突出。

来自主题: AI技术研报
8224 点击    2025-07-11 10:09
使用最强大语言模型做生物信息怎么样

使用最强大语言模型做生物信息怎么样

使用最强大语言模型做生物信息怎么样

最近一直在测试大模型来做生物信息,效果还可以,主要使用gemini cli,由于一直还有机会用上claude code,所以只能通过cursor来使用claude 4,这次内容我们来测试一下claud4的生物信息能力。

来自主题: AI资讯
5601 点击    2025-07-10 12:29
MIT发布自适应语言模型!新任务,自生成远超「GPT-4.1合成训练数据」

MIT发布自适应语言模型!新任务,自生成远超「GPT-4.1合成训练数据」

MIT发布自适应语言模型!新任务,自生成远超「GPT-4.1合成训练数据」

自适应语言模型框架SEAL,让大模型通过生成自己的微调数据和更新指令来适应新任务。SEAL在少样本学习和知识整合任务上表现优异,显著提升了模型的适应性和性能,为大模型的自主学习和优化提供了新的思路。

来自主题: AI技术研报
6569 点击    2025-07-10 11:33
「世界模型」也被泼冷水了?邢波等人揭开五大「硬伤」,提出新范式

「世界模型」也被泼冷水了?邢波等人揭开五大「硬伤」,提出新范式

「世界模型」也被泼冷水了?邢波等人揭开五大「硬伤」,提出新范式

现在的世界模型,值得批判。 我们知道,大语言模型(LLM)是通过预测对话的下一个单词的形式产生输出的。由此产生的对话、推理甚至创作能力已经接近人类智力水平。

来自主题: AI技术研报
5864 点击    2025-07-10 10:57
大模型刷数学题竟有害?CMU评估20+模型指出训练陷阱

大模型刷数学题竟有害?CMU评估20+模型指出训练陷阱

大模型刷数学题竟有害?CMU评估20+模型指出训练陷阱

学好数理化,走遍天下都不怕! 这一点这在大语言模型身上也不例外。

来自主题: AI技术研报
7196 点击    2025-07-09 14:54
突破全模态AI理解边界:HumanOmniV2引入上下文强化学习,赋能全模态模型“意图”推理新高度

突破全模态AI理解边界:HumanOmniV2引入上下文强化学习,赋能全模态模型“意图”推理新高度

突破全模态AI理解边界:HumanOmniV2引入上下文强化学习,赋能全模态模型“意图”推理新高度

在多模态大语言模型(MLLMs)应用日益多元化的今天,对模型深度理解和分析人类意图的需求愈发迫切。尽管强化学习(RL)在增强大语言模型(LLMs)的推理能力方面已展现出巨大潜力,但将其有效应用于复杂的多模态数据和格式仍面临诸多挑战。

来自主题: AI技术研报
7216 点击    2025-07-09 10:59