AI资讯新闻榜单内容搜索-预训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 预训练
让机器人看视频学操作技能,清华等全新发布的CLAP框架做到了

让机器人看视频学操作技能,清华等全新发布的CLAP框架做到了

让机器人看视频学操作技能,清华等全新发布的CLAP框架做到了

近日,清华大学与星尘智能、港大、MIT 联合提出基于对比学习的隐空间动作预训练(Contrastive Latent Action Pretraining, CLAP)框架。这个框架能够将视频中提纯的运动空间与机器人的动作空间进行对齐,也就是说,机器人能够直接从视频中学习技能!

来自主题: AI技术研报
7072 点击    2026-01-19 15:13
解锁任意步数文生图,港大&Adobe全新Self-E框架学会自我评估

解锁任意步数文生图,港大&Adobe全新Self-E框架学会自我评估

解锁任意步数文生图,港大&Adobe全新Self-E框架学会自我评估

香港大学(The University of Hong Kong)与 Adobe Research 联合发布 Self-E(Self-Evaluating Model):一种无需预训练教师蒸馏、从零开始训练的任意步数文生图框架。其目标非常直接:让同一个模型在极少步数也能生成语义清晰、结构稳定的图像,同时在 50 步等常规设置下保持顶级质量,并且随着步数增加呈现单调提升。

来自主题: AI技术研报
8162 点击    2026-01-18 14:57
Anthropic联创:还不存在真正递归自我改进的AI!曝内部调查结果:AI未必能实现开发效率爆炸式增长;Claude也能修水管,看好分布式预训练

Anthropic联创:还不存在真正递归自我改进的AI!曝内部调查结果:AI未必能实现开发效率爆炸式增长;Claude也能修水管,看好分布式预训练

Anthropic联创:还不存在真正递归自我改进的AI!曝内部调查结果:AI未必能实现开发效率爆炸式增长;Claude也能修水管,看好分布式预训练

Anthropic联创又出来说话了!

来自主题: AI资讯
10223 点击    2026-01-12 10:29
MIT天才博士刚毕业,就被前OpenAI CTO抢走!年薪或300万起步

MIT天才博士刚毕业,就被前OpenAI CTO抢走!年薪或300万起步

MIT天才博士刚毕业,就被前OpenAI CTO抢走!年薪或300万起步

MIT天才博士一毕业,火速加盟OpenAI前CTO初创!最近,肖光烜(Guangxuan Xiao)在社交媒体官宣,刚刚完成了MIT博士学位。下一步,他将加入Thinking Machines,专注于大模型预训练的工作。

来自主题: AI资讯
8323 点击    2026-01-09 14:42
动态RAG性能提升14个点!用4万亿token教会大模型 「什么时候该检索」

动态RAG性能提升14个点!用4万亿token教会大模型 「什么时候该检索」

动态RAG性能提升14个点!用4万亿token教会大模型 「什么时候该检索」

近日,来自伊利诺伊大学芝加哥分校、纽约大学、与蒙纳士大学的联合团队提出QuCo-RAG,首次跳出「从模型自己内部信号来评估不确定性」的思维定式,转而用预训练语料的客观统计来量化不确定性,

来自主题: AI技术研报
8166 点击    2026-01-01 10:13
智谱首席科学家唐杰:领域大模型是伪命题!AI模型应用的第一性不应是创造新App,在线学习和自我评估是新Scaling范式

智谱首席科学家唐杰:领域大模型是伪命题!AI模型应用的第一性不应是创造新App,在线学习和自我评估是新Scaling范式

智谱首席科学家唐杰:领域大模型是伪命题!AI模型应用的第一性不应是创造新App,在线学习和自我评估是新Scaling范式

最近,清华大学教授、智谱AI首席科学家唐杰发了一条长微博,总结了自己2025年对大模型进展的感悟。从预训练到中后训练、长尾场景的对齐能力,再到Agent、多模态和具身智能的发展,其中有不少亮点。

来自主题: AI资讯
8819 点击    2025-12-26 15:42
北航提出代码大模型的 Scaling Laws:编程语言差异与多语言最优配比策略

北航提出代码大模型的 Scaling Laws:编程语言差异与多语言最优配比策略

北航提出代码大模型的 Scaling Laws:编程语言差异与多语言最优配比策略

在代码大模型(Code LLMs)的预训练中,行业内长期存在一种惯性思维,即把所有编程语言的代码都视为同质化的文本数据,主要关注数据总量的堆叠。然而,现代软件开发本质上是多语言混合的,不同语言的语法特性、语料规模和应用场景差异巨大。

来自主题: AI技术研报
6867 点击    2025-12-25 09:46
只靠国产算力预训练,稳!全流程开源,「开元」盛世真来了

只靠国产算力预训练,稳!全流程开源,「开元」盛世真来了

只靠国产算力预训练,稳!全流程开源,「开元」盛世真来了

鹏城实验室与清华大学PACMAN实验室联合发布了鹏城脑海‑2.1‑开元‑2B(PCMind‑2.1‑Kaiyuan‑2B,简称开元‑2B)模型,并以全流程开源的方式回应了这一挑战——从训练数据、数据处理框架、训练框架、完整技术报告到最终模型权重,全部开源。

来自主题: AI技术研报
8418 点击    2025-12-21 12:38