AI资讯新闻榜单内容搜索-模型训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 模型训练
斯坦福最新AI Agent序列化证伪假设检验自动化框架,向卡尔·波普尔致敬

斯坦福最新AI Agent序列化证伪假设检验自动化框架,向卡尔·波普尔致敬

斯坦福最新AI Agent序列化证伪假设检验自动化框架,向卡尔·波普尔致敬

在人工智能高速发展的今天,我们似乎迎来了一个"假设爆炸"的时代。大语言模型每天都在产生数以万计的研究假设,它们看似合理,却往往难以验证。这让我不禁想起了20世纪最具影响力的科学哲学家之一——卡尔·波普尔。

来自主题: AI技术研报
8539 点击    2025-02-23 11:13
3元+2小时,普通人也能训练自己的AI大模型!GitHub爆火8.9k星项目,技术圈炸了!

3元+2小时,普通人也能训练自己的AI大模型!GitHub爆火8.9k星项目,技术圈炸了!

3元+2小时,普通人也能训练自己的AI大模型!GitHub爆火8.9k星项目,技术圈炸了!

GitHub上一个开源项目彻底打破门槛:只需3块钱、2小时,普通人也能从零训练自己的语言模型!项目“MiniMind”上线即爆火,狂揽8.9k星标,技术圈直呼:“这才是AI民主化的未来!”

来自主题: AI技术研报
9266 点击    2025-02-23 10:30
1/30训练步骤复刻DeepSeek-R1-Zero,沈向洋姜大昕张祥雨等开源推理模型RL训练方法

1/30训练步骤复刻DeepSeek-R1-Zero,沈向洋姜大昕张祥雨等开源推理模型RL训练方法

1/30训练步骤复刻DeepSeek-R1-Zero,沈向洋姜大昕张祥雨等开源推理模型RL训练方法

DeepSeek啥都开源了,就是没有开源训练代码和数据。现在,开源RL训练方法只需要用1/30的训练步骤就能赶上相同尺寸的DeepSeek-R1-Zero蒸馏Qwen。

来自主题: AI技术研报
7960 点击    2025-02-22 21:30
10美元成功复现DeepSeek顿悟时刻,3B模型爆发超强推理!微软论文实锤涌现

10美元成功复现DeepSeek顿悟时刻,3B模型爆发超强推理!微软论文实锤涌现

10美元成功复现DeepSeek顿悟时刻,3B模型爆发超强推理!微软论文实锤涌现

不到10美元,3B模型就能复刻DeepSeek的顿悟时刻了?来自荷兰的开发者采用轻量级的RL算法Reinforce-Lite,把复刻成本降到了史上最低!同时,微软亚研院的一项工作,也受DeepSeek-R1启发,让7B模型涌现出了高级推理技能。

来自主题: AI技术研报
6113 点击    2025-02-22 15:50
YOLO已经悄悄来到v12,首个以Attention为核心的YOLO框架问世

YOLO已经悄悄来到v12,首个以Attention为核心的YOLO框架问世

YOLO已经悄悄来到v12,首个以Attention为核心的YOLO框架问世

YOLO 系列模型的结构创新一直围绕 CNN 展开,而让 transformer 具有统治优势的 attention 机制一直不是 YOLO 系列网络结构改进的重点。这主要的原因是 attention 机制的速度无法满足 YOLO 实时性的要求。

来自主题: AI技术研报
8256 点击    2025-02-22 14:14
一次推理解决复合问题:基于MoE的大语言模型知识模块可扩展融合推理架构MeteoRA

一次推理解决复合问题:基于MoE的大语言模型知识模块可扩展融合推理架构MeteoRA

一次推理解决复合问题:基于MoE的大语言模型知识模块可扩展融合推理架构MeteoRA

在大语言模型领域中,预训练 + 微调范式已经成为了部署各类下游应用的重要基础。在该框架下,通过使用搭低秩自适应(LoRA)方法的大模型参数高效微调(PEFT)技术,已经产生了大量针对特定任务、可重用的 LoRA 适配器。

来自主题: AI技术研报
6981 点击    2025-02-22 13:57
谷歌超硬核教科书来了!Jeff Dean带货揭Gemini训练秘籍:在TPU上scaling

谷歌超硬核教科书来了!Jeff Dean带货揭Gemini训练秘籍:在TPU上scaling

谷歌超硬核教科书来了!Jeff Dean带货揭Gemini训练秘籍:在TPU上scaling

谷歌团队发布LLM硬核技术教科书,从「系统视图」揭秘LLM Scaling的神秘面纱。Jeff Dean强调书中藏着谷歌最强AI模型Gemini训练的更多信息。

来自主题: AI技术研报
9510 点击    2025-02-21 15:52
大模型扩展新维度:Scaling Down、Scaling Out

大模型扩展新维度:Scaling Down、Scaling Out

大模型扩展新维度:Scaling Down、Scaling Out

近年来, Scaling Up 指导下的 AI 基础模型取得了多项突破。从早期的 AlexNet、BERT 到如今的 GPT-4,模型规模从数百万参数扩展到数千亿参数,显著提升了 AI 的语言理解和生成等能力。然而,随着模型规模的不断扩大,AI 基础模型的发展也面临瓶颈:高质量数据的获取和处理成本越来越高,单纯依靠 Scaling Up 已难以持续推动 AI 基础模型的进步。

来自主题: AI技术研报
9507 点击    2025-02-21 15:43