AI资讯新闻榜单内容搜索-模型训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 模型训练
一个“蠢问题”改写模型规则!Anthropic联创亲曝:瞄准Claude 5开发爆款应用,最强模型的价值会让人忽略成本负担

一个“蠢问题”改写模型规则!Anthropic联创亲曝:瞄准Claude 5开发爆款应用,最强模型的价值会让人忽略成本负担

一个“蠢问题”改写模型规则!Anthropic联创亲曝:瞄准Claude 5开发爆款应用,最强模型的价值会让人忽略成本负担

Anthropic 联合创始人 Jared Kaplan 是一名理论物理学家,研究兴趣广泛,涉及有效场论、粒子物理、宇宙学、散射振幅以及共形场论等。过去几年,他还与物理学家、计算机科学家们合作开展机器学习研究,包括神经模型以及 GPT-3 语言模型的 Scaling Law。

来自主题: AI资讯
5974 点击    2025-07-31 11:05
Writing-Zero: 打破 AI 写作天花板, 让 AI 写作更像"人"

Writing-Zero: 打破 AI 写作天花板, 让 AI 写作更像"人"

Writing-Zero: 打破 AI 写作天花板, 让 AI 写作更像"人"

近年来, 大语言模型 (LLM) 在数学、编程等 "有标准答案" 的任务上取得了突破性进展, 这背后离不开 "可验证奖励" (Reinforcement Learning with Verifiable Rewards, RLVR) 技术的加持。RLVR 依赖于参考信号, 即通过客观标准答案来验证模型响应的可靠性。

来自主题: AI资讯
5431 点击    2025-07-31 11:02
第三代神经网络模型:面向AI应用的脉冲神经网络

第三代神经网络模型:面向AI应用的脉冲神经网络

第三代神经网络模型:面向AI应用的脉冲神经网络

1997年,Wolfgang Maass于Networks of spiking neurons: The third generation of neural network models一文中提出,由脉冲神经元构成的网络——脉冲神经网络(SNN),能够展现出更强大的计算特性,会成为继人工神经网络后的“第三代神经网络模型”[6]。

来自主题: AI技术研报
6402 点击    2025-07-31 10:41
SPIRAL:零和游戏自对弈成为语言模型推理训练的「免费午餐」

SPIRAL:零和游戏自对弈成为语言模型推理训练的「免费午餐」

SPIRAL:零和游戏自对弈成为语言模型推理训练的「免费午餐」

近年来,OpenAI o1 和 DeepSeek-R1 等模型的成功证明了强化学习能够显著提升语言模型的推理能力。通过基于结果的奖励机制,强化学习使模型能够发展出可泛化的推理策略,在复杂问题上取得了监督微调难以企及的进展。

来自主题: AI技术研报
4231 点击    2025-07-31 10:10
超越DeepSeek-R1,数学形式化准确率飙升至84% | 字节&南大开源

超越DeepSeek-R1,数学形式化准确率飙升至84% | 字节&南大开源

超越DeepSeek-R1,数学形式化准确率飙升至84% | 字节&南大开源

当人工智能已经能下围棋、写代码,如何让机器理解并证明数学定理,仍是横亘在科研界的重大难题。

来自主题: AI技术研报
8647 点击    2025-07-30 11:01
LeCun出手,造出视频世界模型,挑战英伟达COSMOS

LeCun出手,造出视频世界模型,挑战英伟达COSMOS

LeCun出手,造出视频世界模型,挑战英伟达COSMOS

2018 年,LSTM 之父 Jürgen Schmidhuber 在论文中( Recurrent world models facilitate policy evolution )推广了世界模型(world model)的概念,这是一种神经网络,它能够根据智能体过去的观察与动作,预测环境的未来状态。

来自主题: AI技术研报
5503 点击    2025-07-30 10:23
全球首次,「AI记忆」开源落地!MIRIX同步上线APP

全球首次,「AI记忆」开源落地!MIRIX同步上线APP

全球首次,「AI记忆」开源落地!MIRIX同步上线APP

加利福尼亚大学圣迭戈分校博士生王禹和纽约大学教授陈溪联合推出并开源了 MIRIX,全球首个真正意义上的多模态、多智能体AI记忆系统。MIRIX团队同步上线了一款桌面端APP,可直接下载使用!

来自主题: AI技术研报
8186 点击    2025-07-29 16:22
ICML25|标点符号竟是LLM记忆核心!正确处理性能暴涨

ICML25|标点符号竟是LLM记忆核心!正确处理性能暴涨

ICML25|标点符号竟是LLM记忆核心!正确处理性能暴涨

近年来,大语言模型(LLM)的能力越来越强,但它们的“饭量”也越来越大。这个“饭量”主要体现在计算和内存上。当模型处理的文本越来越长时,一个叫做“自注意力(Self-Attention)”的核心机制会导致计算量呈平方级增长。这就像一个房间里的人开会,如果每个人都要和在场的其他所有人单独聊一遍,那么随着人数增加,总的对话次数会爆炸式增长。

来自主题: AI技术研报
5311 点击    2025-07-29 12:29