AI资讯新闻榜单内容搜索-模型训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 模型训练
模型参数作知识通用载体,MergeNet离真正的异构知识迁移更进一步

模型参数作知识通用载体,MergeNet离真正的异构知识迁移更进一步

模型参数作知识通用载体,MergeNet离真正的异构知识迁移更进一步

知识蒸馏通过训练一个紧凑的学生模型来模仿教师模型的 Logits 或 Feature Map,提高学生模型的准确性。迁移学习则通常通过预训练和微调,将预训练阶段在大规模数据集上学到的知识通过骨干网络共享应用于下游任务。

来自主题: AI技术研报
3744 点击    2025-01-28 11:57
DeepSeek,改变了AI的游戏规则

DeepSeek,改变了AI的游戏规则

DeepSeek,改变了AI的游戏规则

在美国发布AI禁令后,特朗普随即宣布了一项预算高达5000亿美元的AGI计划——星际之门,以保证其在AI领域的领先地位。而在大洋彼岸的中国,一家名为Deepseek的中国创业公司,只用了2048块显卡,就训练出了一个能与顶级模型相媲美的Deepseek-V3模型。

来自主题: AI资讯
4332 点击    2025-01-27 15:02
28年AGI撞上数据墙,以后全靠测试时计算?CMU详解优化原理

28年AGI撞上数据墙,以后全靠测试时计算?CMU详解优化原理

28年AGI撞上数据墙,以后全靠测试时计算?CMU详解优化原理

2028年,预计高质量数据将要耗尽,数据Scaling走向尽头。2025年,测试时计算将开始成为主导AI通向通用人工智能(AGI)的新一代Scaling Law。近日,CMU机器学习系博客发表新的技术文章,从元强化学习(meta RL)角度,详细解释了如何优化LLM测试时计算。

来自主题: AI技术研报
5793 点击    2025-01-27 14:03
全球掀DeepSeek复现狂潮!硅谷巨头神话崩塌,30刀见证啊哈时刻

全球掀DeepSeek复现狂潮!硅谷巨头神话崩塌,30刀见证啊哈时刻

全球掀DeepSeek复现狂潮!硅谷巨头神话崩塌,30刀见证啊哈时刻

就在刚刚,网上已经出现了一波复现DeepSeek的狂潮。UC伯克利、港科大、HuggingFace等纷纷成功复现,只用强化学习,没有监督微调,30美元就能见证「啊哈时刻」!全球AI大模型,或许正在进入下一分水岭。

来自主题: AI资讯
7861 点击    2025-01-26 13:30
阿里云通义大模型新技术:MoE模型训练专家平衡的关键细节

阿里云通义大模型新技术:MoE模型训练专家平衡的关键细节

阿里云通义大模型新技术:MoE模型训练专家平衡的关键细节

本周,在阿里云通义千问 Qwen 团队提交的一篇论文中,研究人员发现了目前最热门的 MoE(混合专家模型)训练中存在的一个普遍关键问题,并提出一种全新的方法——通过轻量的通信将局部均衡放松为全局均衡,使得 MoE 模型的性能和专家特异性都得到了显著的提升。

来自主题: AI技术研报
3018 点击    2025-01-26 11:12
浙大通义联手推出慢思考长文本生成框架OmniThink,让AI写作突破知识边界

浙大通义联手推出慢思考长文本生成框架OmniThink,让AI写作突破知识边界

浙大通义联手推出慢思考长文本生成框架OmniThink,让AI写作突破知识边界

随着大模型(LLMs)的发展,AI 写作取得了较大进展。然而,现有的方法大多依赖检索知识增强生成(RAG)和角色扮演等技术,其在信息的深度挖掘方面仍存在不足,较难突破已有知识边界,导致生成的内容缺乏深度和原创性。

来自主题: AI技术研报
7064 点击    2025-01-25 23:50
颠覆LLM格局!AI2新模型OLMo2,训练过程全公开,数据架构双升级

颠覆LLM格局!AI2新模型OLMo2,训练过程全公开,数据架构双升级

颠覆LLM格局!AI2新模型OLMo2,训练过程全公开,数据架构双升级

非营利研究机构AI2近日推出的完全开放模型OLMo 2,在同等大小模型中取得了最优性能,且该模型不止开放权重,还十分大方地公开了训练数据和方法。

来自主题: AI技术研报
5953 点击    2025-01-25 09:38
推理模型规划任务成功率从5%到95%,DeepMind遗传算法新研究火了

推理模型规划任务成功率从5%到95%,DeepMind遗传算法新研究火了

推理模型规划任务成功率从5%到95%,DeepMind遗传算法新研究火了

瞄准推理时扩展(Inference-time scaling),DeepMind新的进化搜索策略火了! 所提出的“Mind Evolution”(思维进化),能够优化大语言模型(LLMs)在规划和推理中的响应。

来自主题: AI技术研报
8671 点击    2025-01-24 15:05
用慢思考提升模型安全性,北交大、鹏城实验室提出系统2对齐

用慢思考提升模型安全性,北交大、鹏城实验室提出系统2对齐

用慢思考提升模型安全性,北交大、鹏城实验室提出系统2对齐

OpenAI 在 “双十二” 发布会的最后一天公开了 o 系列背后的对齐方法 - deliberative alignment,展示了通过系统 2 的慢思考能力提升模型安全性的可行性。

来自主题: AI技术研报
7094 点击    2025-01-24 14:45
高效Attention引擎是怎样炼成的?陈天奇团队FlashInfer打响新年第一枪!

高效Attention引擎是怎样炼成的?陈天奇团队FlashInfer打响新年第一枪!

高效Attention引擎是怎样炼成的?陈天奇团队FlashInfer打响新年第一枪!

新年第一天,陈天奇团队的FlashInfer论文出炉!块稀疏、可组合、可定制、负载均衡......更快的LLM推理技术细节全公开。

来自主题: AI技术研报
6548 点击    2025-01-24 13:58