AI资讯新闻榜单内容搜索-语言模型

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 语言模型
Nature重磅!首个AI驱动“基因剪刀”来了,媲美天然CRISPR/Cas,开启基因编辑新纪元!

Nature重磅!首个AI驱动“基因剪刀”来了,媲美天然CRISPR/Cas,开启基因编辑新纪元!

Nature重磅!首个AI驱动“基因剪刀”来了,媲美天然CRISPR/Cas,开启基因编辑新纪元!

当前,CRISPR/Cas系统是应用最广泛的基因组编辑技术。它彻底改变了生命科学研究,并有望改变医学和农业。然而,CRISPR系统在历史上一直具有设计挑战性,因为它们的分子空间很大,需要跨多个维度进行优化。而蛋白质语言模型的出现,给CRISPR系统带来了定制化的转机。

来自主题: AI资讯
8122 点击    2025-08-01 12:19
首部法律LLM全景综述发布!双重视角分类法、技术进展与伦理治理

首部法律LLM全景综述发布!双重视角分类法、技术进展与伦理治理

首部法律LLM全景综述发布!双重视角分类法、技术进展与伦理治理

研究人员首次系统综述了大型语言模型(LLM)在法律领域的应用,提出创新的双重视角分类法,融合法律推理框架(经典的法律论证型式框架)与职业本体(律师/法官/当事人角色),统一梳理技术突破与伦理治理挑战。论文涵盖LLM在法律文本处理、知识整合、推理形式化方面的进展,并指出幻觉、可解释性缺失、跨法域适应等核心问题,为下一代法律人工智能奠定理论基础与实践路线图。

来自主题: AI资讯
7403 点击    2025-08-01 11:51
ACL 2025主会论文 | TRIDENT:基于三维多样化红队数据合成的LLM安全增强方法

ACL 2025主会论文 | TRIDENT:基于三维多样化红队数据合成的LLM安全增强方法

ACL 2025主会论文 | TRIDENT:基于三维多样化红队数据合成的LLM安全增强方法

大语言模型(LLM)已经在多项自然语言处理任务中展现出卓越能力,但其潜在安全风险仍然是阻碍规模化落地的关键瓶颈。目前社区用于安全对齐的公开数据集,往往偏重于「词汇多样性」,即让同一种风险指令尽可能用不同的表达方式出现,却很少系统考虑指令背后的「恶意意图多样性」以及「越狱策略多样性」。

来自主题: AI技术研报
7433 点击    2025-08-01 10:37
一个“蠢问题”改写模型规则!Anthropic联创亲曝:瞄准Claude 5开发爆款应用,最强模型的价值会让人忽略成本负担

一个“蠢问题”改写模型规则!Anthropic联创亲曝:瞄准Claude 5开发爆款应用,最强模型的价值会让人忽略成本负担

一个“蠢问题”改写模型规则!Anthropic联创亲曝:瞄准Claude 5开发爆款应用,最强模型的价值会让人忽略成本负担

Anthropic 联合创始人 Jared Kaplan 是一名理论物理学家,研究兴趣广泛,涉及有效场论、粒子物理、宇宙学、散射振幅以及共形场论等。过去几年,他还与物理学家、计算机科学家们合作开展机器学习研究,包括神经模型以及 GPT-3 语言模型的 Scaling Law。

来自主题: AI资讯
7463 点击    2025-07-31 11:05
Writing-Zero: 打破 AI 写作天花板, 让 AI 写作更像"人"

Writing-Zero: 打破 AI 写作天花板, 让 AI 写作更像"人"

Writing-Zero: 打破 AI 写作天花板, 让 AI 写作更像"人"

近年来, 大语言模型 (LLM) 在数学、编程等 "有标准答案" 的任务上取得了突破性进展, 这背后离不开 "可验证奖励" (Reinforcement Learning with Verifiable Rewards, RLVR) 技术的加持。RLVR 依赖于参考信号, 即通过客观标准答案来验证模型响应的可靠性。

来自主题: AI资讯
7664 点击    2025-07-31 11:02
SPIRAL:零和游戏自对弈成为语言模型推理训练的「免费午餐」

SPIRAL:零和游戏自对弈成为语言模型推理训练的「免费午餐」

SPIRAL:零和游戏自对弈成为语言模型推理训练的「免费午餐」

近年来,OpenAI o1 和 DeepSeek-R1 等模型的成功证明了强化学习能够显著提升语言模型的推理能力。通过基于结果的奖励机制,强化学习使模型能够发展出可泛化的推理策略,在复杂问题上取得了监督微调难以企及的进展。

来自主题: AI技术研报
6042 点击    2025-07-31 10:10
AI时代,作者已死?

AI时代,作者已死?

AI时代,作者已死?

对于任何书面文件,比如此刻你正阅读的这篇文章,追问它出自谁手,似乎理所当然。为此,你可能会八卦一番作者履历,了解作者的一些背景,因作者身份能助你辨认他所写内容的权威性。譬如,对于此文,如果我的履历显示我任职于美国的一所大学的传播学教授,你可能会据此认定我谈论大语言模型相关的颠覆性事件是恰如其分的,甚至因此信任我的观点。毕竟,你已确认了“作者”的身份并发现他在此领域颇有建树。

来自主题: AI技术研报
7216 点击    2025-07-30 10:45
ICML25|标点符号竟是LLM记忆核心!正确处理性能暴涨

ICML25|标点符号竟是LLM记忆核心!正确处理性能暴涨

ICML25|标点符号竟是LLM记忆核心!正确处理性能暴涨

近年来,大语言模型(LLM)的能力越来越强,但它们的“饭量”也越来越大。这个“饭量”主要体现在计算和内存上。当模型处理的文本越来越长时,一个叫做“自注意力(Self-Attention)”的核心机制会导致计算量呈平方级增长。这就像一个房间里的人开会,如果每个人都要和在场的其他所有人单独聊一遍,那么随着人数增加,总的对话次数会爆炸式增长。

来自主题: AI技术研报
7030 点击    2025-07-29 12:29
ACL 2025|驱动LLM强大的过程级奖励模型(PRMs)正遭遇「信任危机」?

ACL 2025|驱动LLM强大的过程级奖励模型(PRMs)正遭遇「信任危机」?

ACL 2025|驱动LLM强大的过程级奖励模型(PRMs)正遭遇「信任危机」?

近年来,大型语言模型(LLMs)在复杂推理任务中展现出惊人的能力,这在很大程度上得益于过程级奖励模型(PRMs)的赋能。PRMs 作为 LLMs 进行多步推理和决策的关键「幕后功臣」,负责评估推理过程的每一步,以引导模型的学习方向。

来自主题: AI技术研报
7466 点击    2025-07-28 10:49
千脑智能觉醒:感知-运动智能模型,亿倍优于视觉Transformer?

千脑智能觉醒:感知-运动智能模型,亿倍优于视觉Transformer?

千脑智能觉醒:感知-运动智能模型,亿倍优于视觉Transformer?

在大语言模型席卷全球的时代,坚持更接近生命本质的智能是少有人走的路。2025年7月初,一篇来自Numenta与Thousand Brains Project的论文,首次通过一个名为“Monty”的AI系统,实验性地验证了神经科学家杰夫·霍金斯(Jeff Hawkins)提出的“千脑智能理论”。

来自主题: AI资讯
6964 点击    2025-07-27 13:46