AI资讯新闻榜单内容搜索-训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 训练
数据难清洗?试试ThinkJSON奖励算法,让DeepSeek-R1驱动Multi-Agent实现

数据难清洗?试试ThinkJSON奖励算法,让DeepSeek-R1驱动Multi-Agent实现

数据难清洗?试试ThinkJSON奖励算法,让DeepSeek-R1驱动Multi-Agent实现

在实际应用中,我们常常需要模型输出具有严格结构的数据,比如生物制药生产记录、金融交易报告或医疗健康档案等。这种结构化输出的需求在生物制造、金融服务、医疗健康等严格监管的领域尤为重要。

来自主题: AI技术研报
3134 点击    2025-02-27 10:25
曝GPT-4.5本周空降!1T激活参数,120T训练数据,会吐出阶段性思考成果然后继续思考

曝GPT-4.5本周空降!1T激活参数,120T训练数据,会吐出阶段性思考成果然后继续思考

曝GPT-4.5本周空降!1T激活参数,120T训练数据,会吐出阶段性思考成果然后继续思考

嚯,万众期待的GPT-4.5,本周就要空降发布?!部分用户的ChatGPT安卓版本(1.2025.056 测试版)上,已经出现了“GPT-4.5研究预览(GPT-4.5 research preview)”的字样。

来自主题: AI资讯
9139 点击    2025-02-27 09:28
何恺明ResNet级神作,分形生成模型计算效率狂飙4000倍!清华校友一作

何恺明ResNet级神作,分形生成模型计算效率狂飙4000倍!清华校友一作

何恺明ResNet级神作,分形生成模型计算效率狂飙4000倍!清华校友一作

大自然的分形之美,蕴藏着宇宙的设计规则。刚刚,何恺明团队祭出「分形生成模型」,首次实现高分辨率逐像素建模,让计算效率飙升4000倍,开辟AI图像生成新范式。

来自主题: AI技术研报
9337 点击    2025-02-26 15:17
多模态大模型对齐新范式,10个评估维度全面提升,快手&中科院&南大打破瓶颈

多模态大模型对齐新范式,10个评估维度全面提升,快手&中科院&南大打破瓶颈

多模态大模型对齐新范式,10个评估维度全面提升,快手&中科院&南大打破瓶颈

尽管多模态大语言模型(MLLMs)取得了显著的进展,但现有的先进模型仍然缺乏与人类偏好的充分对齐。这一差距的存在主要是因为现有的对齐研究多集中于某些特定领域(例如减少幻觉问题),是否与人类偏好对齐可以全面提升MLLM的各种能力仍是一个未知数。

来自主题: AI技术研报
9489 点击    2025-02-26 14:07
千帧长视频时代到来!MIT全新扩散算法让任意模型突破时长极限

千帧长视频时代到来!MIT全新扩散算法让任意模型突破时长极限

千帧长视频时代到来!MIT全新扩散算法让任意模型突破时长极限

进入到 2025 年,视频生成(尤其是基于扩散模型)领域还在不断地「推陈出新」,各种文生视频、图生视频模型展现出了酷炫的效果。其中,长视频生成一直是现有视频扩散的痛点。

来自主题: AI技术研报
6179 点击    2025-02-26 13:39
DeepSeek开源通用矩阵乘法库,300行代码加速V3、R1,R2被曝五月前问世

DeepSeek开源通用矩阵乘法库,300行代码加速V3、R1,R2被曝五月前问世

DeepSeek开源通用矩阵乘法库,300行代码加速V3、R1,R2被曝五月前问世

DeepSeek 的开源周已经进行到了第三天(前两天报道见文末「相关阅读」)。今天开源的项目名叫 DeepGEMM,是一款支持密集型和专家混合(MoE)GEMM 的 FP8 GEMM 库,为 V3/R1 的训练和推理提供了支持,在 Hopper GPU 上可以达到 1350+ FP8 TFLOPS 的计算性能。

来自主题: AI资讯
7194 点击    2025-02-26 10:58
一文详解:DeepSeek 第三天开源的 DeepGEMM

一文详解:DeepSeek 第三天开源的 DeepGEMM

一文详解:DeepSeek 第三天开源的 DeepGEMM

DeepSeek 开源周的第三天,带来了专为 Hopper 架构 GPU 优化的矩阵乘法库 — DeepGEMM。这一库支持标准矩阵计算和混合专家模型(MoE)计算,为 DeepSeek-V3/R1 的训练和推理提供强大支持,在 Hopper GPU 上达到 1350+FP8 TFLOPS 的高性能。

来自主题: AI技术研报
6076 点击    2025-02-26 10:46
受R1启发,微软亚洲发布Logic-RL,帮助LLM通过RL解决"骑士与骗子"逻辑谜题

受R1启发,微软亚洲发布Logic-RL,帮助LLM通过RL解决"骑士与骗子"逻辑谜题

受R1启发,微软亚洲发布Logic-RL,帮助LLM通过RL解决"骑士与骗子"逻辑谜题

本文深入解析一项开创性研究——"Logic-RL: Unleashing LLM Reasoning with Rule-Based Reinforcement Learning",该研究通过基于规则的强化学习技术显著提升了语言模型的推理能力。微软亚洲的研究团队受DeepSeek-R1成功经验的启发,利用结构化的逻辑谜题作为训练场,为模型创建了一个可以系统学习和改进推理技能的环境。

来自主题: AI技术研报
6489 点击    2025-02-26 09:56