AI资讯新闻榜单内容搜索-模型训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 模型训练
Multi-Agent辩论树ToD:让AI具备批判性思维,用R1推理,解决复杂认知任务

Multi-Agent辩论树ToD:让AI具备批判性思维,用R1推理,解决复杂认知任务

Multi-Agent辩论树ToD:让AI具备批判性思维,用R1推理,解决复杂认知任务

随着AI工具越来越普及,类似Deep Researh这样的工具越来越好用,科学研究成果呈现爆炸式增长。以arXiv为例,仅2024年10月就收到超过24,000篇论文提交。

来自主题: AI技术研报
10400 点击    2025-02-24 10:09
Bengio参与,扩散模型+蒙特卡洛树搜索实现System 2规划

Bengio参与,扩散模型+蒙特卡洛树搜索实现System 2规划

Bengio参与,扩散模型+蒙特卡洛树搜索实现System 2规划

把扩散模型的生成能力与 MCTS 的自适应搜索能力相结合,会是什么结果?

来自主题: AI技术研报
8399 点击    2025-02-23 16:16
斯坦福最新AI Agent序列化证伪假设检验自动化框架,向卡尔·波普尔致敬

斯坦福最新AI Agent序列化证伪假设检验自动化框架,向卡尔·波普尔致敬

斯坦福最新AI Agent序列化证伪假设检验自动化框架,向卡尔·波普尔致敬

在人工智能高速发展的今天,我们似乎迎来了一个"假设爆炸"的时代。大语言模型每天都在产生数以万计的研究假设,它们看似合理,却往往难以验证。这让我不禁想起了20世纪最具影响力的科学哲学家之一——卡尔·波普尔。

来自主题: AI技术研报
9257 点击    2025-02-23 11:13
3元+2小时,普通人也能训练自己的AI大模型!GitHub爆火8.9k星项目,技术圈炸了!

3元+2小时,普通人也能训练自己的AI大模型!GitHub爆火8.9k星项目,技术圈炸了!

3元+2小时,普通人也能训练自己的AI大模型!GitHub爆火8.9k星项目,技术圈炸了!

GitHub上一个开源项目彻底打破门槛:只需3块钱、2小时,普通人也能从零训练自己的语言模型!项目“MiniMind”上线即爆火,狂揽8.9k星标,技术圈直呼:“这才是AI民主化的未来!”

来自主题: AI技术研报
10907 点击    2025-02-23 10:30
1/30训练步骤复刻DeepSeek-R1-Zero,沈向洋姜大昕张祥雨等开源推理模型RL训练方法

1/30训练步骤复刻DeepSeek-R1-Zero,沈向洋姜大昕张祥雨等开源推理模型RL训练方法

1/30训练步骤复刻DeepSeek-R1-Zero,沈向洋姜大昕张祥雨等开源推理模型RL训练方法

DeepSeek啥都开源了,就是没有开源训练代码和数据。现在,开源RL训练方法只需要用1/30的训练步骤就能赶上相同尺寸的DeepSeek-R1-Zero蒸馏Qwen。

来自主题: AI技术研报
9374 点击    2025-02-22 21:30
10美元成功复现DeepSeek顿悟时刻,3B模型爆发超强推理!微软论文实锤涌现

10美元成功复现DeepSeek顿悟时刻,3B模型爆发超强推理!微软论文实锤涌现

10美元成功复现DeepSeek顿悟时刻,3B模型爆发超强推理!微软论文实锤涌现

不到10美元,3B模型就能复刻DeepSeek的顿悟时刻了?来自荷兰的开发者采用轻量级的RL算法Reinforce-Lite,把复刻成本降到了史上最低!同时,微软亚研院的一项工作,也受DeepSeek-R1启发,让7B模型涌现出了高级推理技能。

来自主题: AI技术研报
7151 点击    2025-02-22 15:50
YOLO已经悄悄来到v12,首个以Attention为核心的YOLO框架问世

YOLO已经悄悄来到v12,首个以Attention为核心的YOLO框架问世

YOLO已经悄悄来到v12,首个以Attention为核心的YOLO框架问世

YOLO 系列模型的结构创新一直围绕 CNN 展开,而让 transformer 具有统治优势的 attention 机制一直不是 YOLO 系列网络结构改进的重点。这主要的原因是 attention 机制的速度无法满足 YOLO 实时性的要求。

来自主题: AI技术研报
9544 点击    2025-02-22 14:14
一次推理解决复合问题:基于MoE的大语言模型知识模块可扩展融合推理架构MeteoRA

一次推理解决复合问题:基于MoE的大语言模型知识模块可扩展融合推理架构MeteoRA

一次推理解决复合问题:基于MoE的大语言模型知识模块可扩展融合推理架构MeteoRA

在大语言模型领域中,预训练 + 微调范式已经成为了部署各类下游应用的重要基础。在该框架下,通过使用搭低秩自适应(LoRA)方法的大模型参数高效微调(PEFT)技术,已经产生了大量针对特定任务、可重用的 LoRA 适配器。

来自主题: AI技术研报
8237 点击    2025-02-22 13:57