AI资讯新闻榜单内容搜索-模型

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 模型
无需人工标注!AI自生成训练数据,靠「演绎-归纳-溯因」解锁推理能力

无需人工标注!AI自生成训练数据,靠「演绎-归纳-溯因」解锁推理能力

无需人工标注!AI自生成训练数据,靠「演绎-归纳-溯因」解锁推理能力

新加坡国立大学等机构的研究者们通过元能力对齐的训练框架,模仿人类推理的心理学原理,将演绎、归纳与溯因能力融入模型训练。实验结果显示,这一方法不仅提升了模型在数学与编程任务上的性能,还展现出跨领域的可扩展性。

来自主题: AI技术研报
9598 点击    2025-06-03 10:36
AI竟会「自己认错」?破解多智能体协作「罗生门」,斩获ICML 2025 Spotlight

AI竟会「自己认错」?破解多智能体协作「罗生门」,斩获ICML 2025 Spotlight

AI竟会「自己认错」?破解多智能体协作「罗生门」,斩获ICML 2025 Spotlight

在多智能体AI系统中,一旦任务失败,开发者常陷入「谁错了、错在哪」的谜团。PSU、杜克大学与谷歌DeepMind等机构首次提出「自动化失败归因」,发布Who&When数据集,探索三种归因方法,揭示该问题的复杂性与挑战性。

来自主题: AI技术研报
9362 点击    2025-06-03 10:25
Z Product|10人以下团队+DePIN模式,DeepAI决定让AI“民主化”到每一个人

Z Product|10人以下团队+DePIN模式,DeepAI决定让AI“民主化”到每一个人

Z Product|10人以下团队+DePIN模式,DeepAI决定让AI“民主化”到每一个人

生成式AGI已经颠覆了人们的生活,但AI工具并没有随着用户使用场景的融合而整合。各个赛道的头部玩家依靠独家的数据库发展模型,现有算力和数据量难以支撑多模态和跨业务领域拓展,急需形成用户粘性的市场竞争也使得AI的生成稳定性被优先考虑。

来自主题: AI资讯
8256 点击    2025-06-03 10:19
微软等提出「模型链」新范式,与Transformer性能相当,扩展性灵活性更好

微软等提出「模型链」新范式,与Transformer性能相当,扩展性灵活性更好

微软等提出「模型链」新范式,与Transformer性能相当,扩展性灵活性更好

随着大语言模型 (LLM) 的出现,扩展 Transformer 架构已被视为彻底改变现有 AI 格局并在众多不同任务中取得最佳性能的有利途径。因此,无论是在工业界还是学术界,探索如何扩展 Transformer 模型日益成为一种趋势。

来自主题: AI技术研报
8048 点击    2025-06-03 09:58
LSTM之父22年前构想将成真?一周内AI「自我进化」论文集中发布,新趋势涌现?

LSTM之父22年前构想将成真?一周内AI「自我进化」论文集中发布,新趋势涌现?

LSTM之父22年前构想将成真?一周内AI「自我进化」论文集中发布,新趋势涌现?

在过去的一周,这一方向的进展尤其丰富。有人发现,几篇关于「让 LLM(或智能体)学会自我训练」的论文在 arXiv 上集中出现,其中甚至包括受「哥德尔机」构想启发而提出的「达尔文哥德尔机」。或许,AI 模型的自我进化能力正在加速提升。

来自主题: AI技术研报
7136 点击    2025-06-03 09:36
MiniMax正暗戳戳憋大招

MiniMax正暗戳戳憋大招

MiniMax正暗戳戳憋大招

MiniMax即将发布代号M+的文本推理模型,其表现将影响公司未来竞争力。面对DeepSeek R1的冲击,MiniMax采取国内C端不接入、海外接入的策略,并推出类Manus产品MiniMax Agent。公司通过品牌拆分(海螺AI更名)、纯API商业模式拓展市场,语音模型商业化效果显著,但未进入“基模五强”名单。新推理模型或成其保持行业地位的关键。

来自主题: AI资讯
7986 点击    2025-06-03 00:16
微软再放LLM量化大招!原生4bit量化,成本暴减,性能几乎0损失

微软再放LLM量化大招!原生4bit量化,成本暴减,性能几乎0损失

微软再放LLM量化大招!原生4bit量化,成本暴减,性能几乎0损失

原生1bit大模型BitNet b1.58 2B4T再升级!微软公布BitNet v2,性能几乎0损失,而占用内存和计算成本显著降低。

来自主题: AI技术研报
7759 点击    2025-06-02 18:00
首次解释LLM如何推理反思!西北大学谷歌新框架:引入贝叶斯自适应强化学习,数学推理全面提升

首次解释LLM如何推理反思!西北大学谷歌新框架:引入贝叶斯自适应强化学习,数学推理全面提升

首次解释LLM如何推理反思!西北大学谷歌新框架:引入贝叶斯自适应强化学习,数学推理全面提升

推理模型常常表现出类似自我反思的行为,但问题是——这些行为是否真的能有效探索新策略呢?

来自主题: AI技术研报
7202 点击    2025-06-02 17:48
FLUX.1 Kontext案例教程,这次真的解决主体一致性了

FLUX.1 Kontext案例教程,这次真的解决主体一致性了

FLUX.1 Kontext案例教程,这次真的解决主体一致性了

嗨大家好!假期愉快! 5月29日,黑森林实验室发布了 FLUX.1 Kontext,目标是通过一个统一的框架处理多种图像任务,解决现有模型在多轮编辑中的一些关键痛点。

来自主题: AI技术研报
9697 点击    2025-06-02 17:20