深度|Hugging Face联创:中国模型成初创公司首选,开源将决定下一轮AI技术主导权

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
深度|Hugging Face联创:中国模型成初创公司首选,开源将决定下一轮AI技术主导权
9480点击    2025-12-02 15:12

深度|Hugging Face联创:中国模型成初创公司首选,开源将决定下一轮AI技术主导权

图片来源:YouTube


Z Highlights


  • 在美国也出现了一种“开源重新兴起”的现象,某种意义上是对中国发展的反应。所以美国开始重新推动大量开源。


  • 很多想要做一些超出闭源系统能力范围、想要探索新方向的初创公司,现在不得不从中国模型开始。这已成为一种明显趋势:如果你想在 AI 中探索全新的使用场景,你必须从开源模型开始,因为你无法完全适应闭源模型的限制。


  • 在我看来,现有这一代技术会遇到一个天花板。而这个天花板并不是说它们做不了我们今天能做的事情——那些它们是能做到的。我说的天花板,指的是那种我们期待的super intelligence式的跨越式提升:也就是模型开始做到“人做不到的事”。而依赖不断标注数据、不断缓慢推动边界的方式,很难实现这种跨越。


  • 我意识到机器人领域可能会重演这种情况:成为关键技术,但社区和研究者却无法参与。


Thomas Wolf ,Hugging Face联合创始人兼首席科学家,被视为全球开源AI运动的核心推动者之一,长期致力于重构模型、数据、算力与应用组成的 AI 堆栈,并在 LLM、开源生态与机器人智能领域具有深远影响力。本次访谈由TechCrunch在2025年11月8日发起,聚焦Thomas Wolf对2025年AI竞赛的核心趋势,提到中国开源模型已成初创公司探索新场景的首选,美国开源复兴是对中国发展的回应,并分析了LLM规模扩展的局限,认为难破super intelligence。


2025-2026 AI 竞赛趋势:算力集中与开源新势力崛起


Max:好的,非常感谢大家来到这里。今天的嘉宾是Hugging Face的联合创始人Thomas Wolf。Thomas,谢谢你来参加访谈。


Thomas:谢谢你,Max。今天有很多内容值得聊。


Max:Hugging Face实际上处在开源AI生态的核心位置,所以你能从一个很独特的角度观察行业动态。我想先从整个AI竞赛的大环境聊起。


站在更高的俯瞰视角来看,现在关于AI的讨论和话题特别多。我很好奇,在迈向2026年之际,你如何看待2025年的AI竞赛?你观察到的整体趋势是什么?


Thomas:我们正在看到几个更宏观的趋势。首先,一方面,整个行业正在明显向少数几个核心参与者集中


这主要与可用算力有关,而算力会成为2026年的一个大话题。但另一方面,令人意外的是,尤其是在开源社区,我们看到大量新的参与者不断进入。例如,今年的一个重要现象,就是中国许多新实验室的涌现,他们训练出了相当优秀的模型。


这一点在一年前其实难以预测。我上周还去中国待了几天,试图在当地了解真实情况。这会成为一个延续性的趋势,甚至可能成为通向2026年的核心趋势之一——大量新的参与者持续涌入。


另外,在美国也出现了一种“开源重新兴起”的现象,某种意义上是对中国发展的反应。所以美国开始重新推动大量开源。我们看到规模庞大的基金,也看到Reflection这样估值数十亿美元的新公司,他们希望把开源力量重新拉回美国。


很多想要做一些超出闭源系统能力范围、想要探索新方向的初创公司,现在不得不从中国模型开始。这已成为一种明显趋势:如果你想在AI中探索全新的使用场景,你必须从开源模型开始,因为你无法完全适应闭源模型的限制。


比如你想做交互式世界模型(interactive world model),那就需要大量的附加交互结构,而闭源模型无法让你做到这一点。


所以他们会从中国模型开始。到2026年,这股力量会促使开源在美国重新被推向前台。


我们也很好奇这一切会如何与算力的发展相互影响。过去几年行业里一直在说:“开源无法竞争,因为算力不够”。但令人惊讶的是,开源依然能够保持竞争力,而且一直非常有存在感。


比如就在昨天,在人工智能模型分析榜单中,排名第五的模型Minimax M2就是开源模型,而且表现非常强。


所以当我们真正进入“算力时代”时,开源是否仍然能保持这样的表现,将会非常有意思。


我当然是乐观的。我也承认自己有偏向,因为我确实希望看到开源模型在未来继续取得成功。


Max:我还想具体问一下,现在行业里出现的大规模数据中心建设。外界普遍认为,要追求AGI或super intelligence,就必须构建规模极其庞大的模型。像OpenAI、Google、Anthropic这些公司,都在尝试训练越来越庞大的模型。


我很好奇,你怎么看这件事?你认为继续按照现在的方式扩展LLM、不断加大规模,真的可能达到AGI或super intelligence吗?


Thomas:我可能算是对此更谨慎的声音之一。LLM确实表现得非常好,但对任何真正参与训练或深入了解模型的人来说,有一个很明显的事实:它们的泛化能力比我们原本预期的要弱得多。


现在的“秘诀”,更多是尽可能多地对数据进行标注,而这又正在演变成尽可能多地在不同环境里做RL。这也成为今年年底的一个重要趋势——大家都在搭建大量RL环境,让模型通过交互不断学习。


这意味着两件事。第一,我们会继续看到像Merkle这样的公司,以及围绕LLM的整个生态越来越庞大。第二,这也意味着模型的泛化能力实际上比我们预期的更有限。


在我看来,现有这一代技术会遇到一个天花板。而这个天花板并不是说它们做不了我们今天能做的事情——那些它们是能做到的。我说的天花板,指的是那种我们期待的super intelligence式的跨越式提升:也就是模型开始做到“人做不到的事”。而依赖不断标注数据、不断缓慢推动边界的方式,很难实现这种跨越。


我最常举的例子就是科学。假如我们希望AI能提出新的科学理论,那么“AI for science”有两种可能。


第一种非常现实,而且一定会成真:AI将成为一种特别有用的科研助手。你可以给它一个科研项目,让它去做,它会非常有帮助。这一定会到来。


但最有趣的另一种可能,能够自己定义研究问题的“AI科学家”。而在真实的科研中,定义问题从来不是寻找一个“稍微更好的点”,而是正如我们之前提到的Peter Thiel的观点——寻找一个大家都认为是真的东西,然后尝试证明它是假的。


而这种思维往往能孕育出非常伟大的公司,这在所有高度创造性的领域(包括科学)中都是共同规律:你要从那些“被认为理所当然的真理”去切入。比如在哥白尼的年代,“太阳绕着地球转”是所有人都坚信的。真正的突破来自有人尝试去证明它是错的。


历史上许多最伟大的科研工作,就是从挑战那些“看似无可置疑”的东西开始,证明它们并不完全正确,或者找到一种全新的方式去理解它们。


而这种“创造新的问题、挑战旧有假设”的能力,以我们目前的模型训练方式,几乎不可能真正实现。


AI 的 “唯唯诺诺” 与行业泡沫:创新缺失下的资本博弈


Max:你今年写过一篇非常火的文章,大意就是说:我们正在把AI模型训练成一支“唯唯诺诺的队伍”,它们会不断说“Yes”,但不会提出好问题。那是大约六个月前写的。你现在仍然这样认为吗?


Thomas:是的,我仍然这样认为,完全如此。这件事某种程度上是很令人沮丧的,因为我们当然希望AI助手越来越好——AI助手确实很棒,而且会越来越棒。但我们作为一个物种,其实希望AI不仅是助手,更能帮助我们解决深层问题、推动突破性科研发现。


但目前的我们,离这种能力还完全没有进展到位。


有人认为,只要让模型推理得足够久、想得足够深,它们自然会产生创新想法。但我并不认为这种观点成立。


Max:这个观点在硅谷是非常有争议的。很多AI公司的估值都建立在这样的假设上:继续扩大模型规模→获得更强智能→最终走向super intelligence。那么问题就是,在你对扩展能力持保留态度的情况下,你怎么看现在的AI泡沫?


Thomas:我觉得这里可以举一个很典型的例子:数学。最近围绕某些“AI证明数学定理”的新闻非常多,但这其实是误导性的。因为数学中的真正“发现”,不是证明过程,而是提出新的猜想。


到目前为止,我没有看到过任何AI模型提出过一个能让数学家愿意花数年生命投入研究的猜想。比如费马大定理这种级别的创造力。如果AI要声称自己正在成为“科学发现者”,它必须达到这种级别,而目前完全没有。


所以我们看到的更多情况是:AI找到了一种新的证明路径,或者,更常见的情况是,它其实只是用来搜索文献,找到他人证明某个结论的方法。


但随后就被大肆宣传成“AI正在进行数学发现”。总体来说,数学其实是最糟糕的例子,如果你想用它来给自己公司贴上“AI科研发现者”的估值标签。


Max:所以你认为,现在一些公司的估值确实不合理?


Thomas:有一点吧。


Max:最近关于泡沫的讨论已经到了一个高点。比如Jeff Bezos前几天就说,我们现在就在泡沫里。你觉得这与刚才说的“模型缺乏真正创新能力”之间有关系吗?


Thomas:但泡沫总是这样:即便它是泡沫,也可能催生一些真正有价值的创新。所以我并不想单纯地唱衰或“戳破”这个泡沫——因为也许正是这些巨量投入,会在过程中带来一些意料之外的真正突破。


Max:你能具体解释一下吗?


Thomas:比如最近的例子:Periodic Labs。他们非常有趣,他们想通过模拟来推进科学实验,因为科学实验通常是这样的过程:你先提出一个实验想法,然后必须通过真实实验去验证,从而形成一个真实世界里的RL闭环。但问题在于,现实世界的实验非常麻烦:需要硬件,需要机器人,而机器人会坏,实验过程很慢,而且你不能加速它。


因此更快的方式就是使用模拟。我在博士期间做过大量模拟,任何做过模拟的人都知道一个最大的问题:现实往往不像模拟世界那样运行。


大家都知道这个核心问题:模拟是否真的能解决现实世界的问题?这是一个非常大的未知。


问题是:simulation真的能作为可靠方法吗?因为要模拟真实世界本身就极难,而AI并不能直接、自动地解决这个难题。


但如果有足够资本投入进去,我们可以从侧面提升simulation的精确度和质量。也许我们会通过解决一些中间问题,从而极大提升模拟环境本身——利用现在AI行业能吸引巨额资金的优势。


这里还有另一个“连带效应”:如果因为AI的需求,我们让GPU变得更强、更便宜、规模更大,那么这些GPU同样也会被用于科学模拟。


因此,所有依赖模拟的领域——科学研究、工程,像SpaceX这类高度依赖仿真的公司——都可能因此受益,获得巨大的提升。


到那时,模拟和AI之间可能会形成一个真正的“飞轮效应”,一起滚动。


开源与闭源的博弈:人才流向、政策支持与全球生态竞争


Max:我觉得还有一点很有意思。许多最前沿的AI公司正在构建非常昂贵的闭源模型,但在你的平台上,人们能免费下载到开源模型,而这些模型在很多任务上已经能做到相似的效果。


与此同时,我们也看到一些变化,比如Meta最近在某种程度上减少了开源力度;OpenAI去年发布了一个开源模型,但它的质量显然不如其顶级闭源模型。


你怎么看待开源模型在未来一年里是否还能跟上闭源模型这种高速竞赛?


Thomas:这是个复杂的问题,因为一家公司是否选择开源模型,并不是由单一因素决定的,背后包含非常多的动机与考量。


在许多情况下,开源是整个实验室生命周期中的一种策略。例如,如果你希望吸引人才、希望顶级研究者加入你,那么是否选择开源模型是一个非常重要的因素。


Meta的情况就是这样。近年来,它在美国和西方地区越来越难招到愿意长期从事开源方向的一流研究者。现在在西方,做闭源似乎变得更有吸引力,甚至更能让人觉得在做前沿工作。


但在中国情况完全相反:如果你是闭源实验室,反而很难挖到最优秀的人。


这种差异非常有趣,因为它其实更多是社会文化层面的,而不是技术层面的。


因此,如果未来美国有几家顶尖实验室重新在前沿层级推动开源,那么情况可能会再次反转——要吸引最优秀的人才,你就必须做开源,因为开源又会变成“酷”的选择。


这种转变其实很难预测。比如说,如果Reflection的开源模型成果非常出色,它可能会成为一个旗舰实验室,从而重新把行业风向带回“开源很酷”的时代。


Max:那你觉得,要鼓励更多公司开源模型,我们应该做些什么?比如特朗普政府最近发布了一些行政命令,其中有些内容对开源非常支持。你怎么看这些政策?


Thomas:这非常重要。


从现实角度来说,现在绝大多数创业公司和研究生态都建立在开源基础上,未来也会继续如此。原因很简单:开源模型能让你更容易调整、试验和定制,更容易探索新的使用方式。


开源也能更好地处理许多对数据隐私有要求的场景,例如你的数据不能上传到云端。


开源还允许你用任何你想用的硬件部署模型,比如你需要在Grok上跑5000token/s,那你就可以直接这样做。开源带来的,是自由度、自主性以及更强的可控性。


更重要的是,美国不应该让其他国家在这一层面取得领先。就像芯片产业必须掌握在本土一样,模型层也应如此。


换句话说,美国应该拥有从芯片开始、到模型这一层的完整技术栈。初创公司应该能够尽可能地掌控自己的技术栈,而不是被锁死。


Max:但与此同时,Hugging Face上最受欢迎的模型中,有很多来自中国,比如DeepSeek和Qwen。你怎么看?


Thomas:实际上,NVIDIA也是Hugging Face上最大的开源模型和数据集的贡献者之一。很多人并不知道这一点。


Jensen非常聪明。他很早就明白,要让你的芯片被广泛采用,你需要构建一个强大的软件1.0生态,比如CUDA和一系列底层库。现在他也明白了,在AI时代继续保持领先,同样需要一个强大的软件2.0生态,也就是模型和数据集。


目前仍然有很多美国实验室非常接近前沿。当然,对Jensen来说也有一个挑战:他的客户们本身也在训练模型。所以他不能与客户直接竞争。但如果NVIDIA愿意,他们完全有能力训练出性能全球前两名的模型,而且是“开箱即用”的那种。


从更长远看,如果AI竞赛继续升温,我们可能会开始讨论国家化这种话题,在那种情况下,开源是否仍然合适将成为必须认真讨论的问题之一。但只要我们仍然处于一个偏自由资本主义的体系之中,开源仍然是美国构建健康AI生态的最佳方式。


Max:你怎么看待国家化这件事?


Thomas:这类事情其实很难用数据驱动的方式预测,它通常取决于几个关键人物、国际关系和全球范围内的政策平衡。


我个人比较务实,我倾向于把当前的AI技术视作过去计算技术和AI技术的延伸。因此,我并不相信会出现所谓的“智能爆炸”。


在我看来,只要技术在平稳地增长、持续提升,而不是突然发生剧烈变化,就不会演变成一场严重的政治竞赛。


Max:是的,确实挺政治化的。不过我还想聊聊Hugging Face的业务方面。你前面提到NVIDIA,我记得NVIDIA是Hugging Face的投资方之一。你们上一次融资是在2023年,超过2亿美元,估值接近50亿。你们近期还有再融资的计划吗?


Thomas:我们其实并不需要。上一轮融资的钱,到现在我们还没怎么动过。


Max:你们还没动过?


Thomas:对,完全没动。我们运营效率非常高,在如今的初创圈子里可能算是“老派公司”。


我们对支出极其谨慎,对自己的预算管理得很好。


我们现在的团队大概250人,对一家公司来说,这个规模在八年时间里算非常小的。我们只在少量收购里用过一点资金,其余都保持非常节制。


未来可能会再融资,但那更可能是为了给员工提供一些二级市场的流动性机会,或者是出于一些结构性的需求,而不是因为我们真的需要这笔资金去烧钱。


Max:你之前提到Hugging Face已经盈利。我很好奇你们现在的业务模式是什么?毕竟很多人都是免费从Hugging Face下载模型的,那你们的营收主要来自哪里?


Thomas:我们现在处于业务转型阶段。过去我们的收入主要来自咨询服务,以及和主流云服务商的几项大型合作。


但从去年开始,我们推出了Hub的企业版。在新的AI模型生态下,越来越多团队开始训练自己的模型,他们在训练、微调、数据处理等方面的活动量越来越大,这些活动类似于工程师平时写代码的工作形态。


因此,我们推出企业版,让那些活跃使用Hub的公司,不仅能对外发布模型,也能在内部托管模型,在不同团队之间共享,同时具备访问控制、权限管理、资源组隔离、日志审计,以及其他生产级别的安全需求。


简单来说,就是把企业在生产环境需要的所有安全合规能力,都集成进去了。这个产品非常成功。现在已有数千个组织在使用它,其中包括Salesforce等大型客户。这也是我们未来的核心方向。


随着AI社区的成熟,越来越多人不再只是“使用AI”,而是成为“AI构建者”。我们认为企业版将会成为一个长期重要、规模很大的产品。


布局机器人领域:开源生态的延伸与人机交互的探索


Max:你们最近还收购了一家s初创公司Humanoid Robotic,并且发布了一个机器人Ritchie。为什么Hugging Face要进入机器人领域?


Thomas:我们的核心目标是构建一个覆盖各个领域的开源AI社区。


而AI涉及的每个领域,都应该有一个活跃的开源生态。


最初是LLM,随后是Stable Diffusion,例如视觉模型、语音模型。而接下来,我非常确信,在未来一到两年里,AI将会进入机器人领域。而且这是一个能产生指数级进展、或至少非常关键进展的领域。


我们大约两年前就开始了机器人领域的研发。我们观察到这个领域的主要玩家几乎全部是闭源的。像Tesla、Figure,它们做的机器人非常出色,但整个体系都是垂直封闭的闭源堆。


你无法拿一个Optimus去改造成你自己的机器人,这几乎不可能。


这种情形让我想起了GPT-3发布后的那段时间:涌现了一些新公司,比如Cohere和AI21,但几乎没有人愿意推动开源。


我意识到机器人领域可能会重演这种情况:成为关键技术,但社区和研究者却无法参与。


因此,我们从软件端开始,发布了一个叫Le Robots的库,并在Hub上让大家开始探索机器人。结果非常成功,有数以万计的人使用它、贡献代码、尝试新方法。


今年我们继续思考:下一步如何继续扩大生态?下一步是什么?社区真正需要的是什么?


我们发现,人们最需要的,是一个真正能够负担得起的入门级机器人。因为我们昨天看到One X Neo,它是一个非常出色的机器人,但它的价格是两万美元。这个价格意味着,要把它用起来,你必须构建一个完全成型的产品体系。


但很多人只是想开始接触机器人,想看看自己能用它做些什么,他们并不需要一个价值两万美元的机器人。


所以我们决定从入门级、低成本的开源硬件开始。例如,我们发布了SU-100,这是一个售价100美元的机械臂,你可以用它来实验最新的算法。这一产品反响非常好。


之后,我们又往前迈了一步。我们与一家少数真正做开源humanoid的公司合作,我们之前与他们讨论过融资的问题。后来我问他们的创始人Matthew:“你们为什么不直接加入我们?我们一起把机器人生态做起来怎么样?”于是我们在今年正式完成了收购。


今年七月,我们发布了第一款机器人:Ritchie Mini。这一次我们想探索的是机器人领域以前几乎没有人认真尝试过的方向——不仅是让机器人“行走”或“抓取”,而是要研究机器人领域里一个很少被认真研究的方向:人机交互(human–robot interaction)。


我们希望探索的问题是:我应当如何与机器交流?如何确保它能理解我?怎样让人与机器的交流变得自然?怎样让人感受到它确实在“倾听”?


如今的humanoid虽然很先进,但当你与它们交谈时,你往往并不确定它们是否真的“懂你说的话”。


因此我们推出了这样一个桌面型的小机器人。你可以给它加入VLM和speech-to-speech模型,看看观察:它是否能和你产生自然的互动?是否有趣?是否能够作为学习机器人的入口?甚至,是否能让人通过学习机器人,顺便学会AI?


最终效果非常好。我们卖出了大约150万美元的机器人。现在我们正在准备发货,预计一个月左右就能送到用户手中。


Max:也就是说你们将在一个月内把它送到用户手上?


Thomas:是的。


Max:好的,我想我们的时间也差不多了。Thomas,非常感谢你来到这里,也感谢所有聆听的观众。


Thomas:谢谢你,Max。


原文: Hugging Face's Co-Founder Thomas Wolf on sharping the AI stack | TechCrunch Disrupt 2025


https://www.youtube.com/watch?v=SSBjP22ov8Q


编译:Irene Chen


文章来自于“Z Potentials”,作者 “Thomas Wolf”。

AITNT-国内领先的一站式人工智能新闻资讯网站
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
微调

【开源免费】XTuner 是一个高效、灵活、全能的轻量化大模型微调工具库。它帮助开发者提供一个简单易用的平台,可以对大语言模型(LLM)和多模态图文模型(VLM)进行预训练和轻量级微调。XTuner 支持多种微调算法,如 QLoRA、LoRA 和全量参数微调。

项目地址:https://github.com/InternLM/xtuner