2025 年 12 月的第二周,一则颇为吸睛的消息从东京传出:一家名为 Integral AI 的初创公司宣布,他们已经成功测试出“世界上第一个具备 AGI 能力的模型”。AGI,即 Artificial General Intelligence(通用人工智能),向来被视为 AI 领域的终极圣杯。
OpenAI、DeepMind、Anthropic 等行业巨头都把它写进使命宣言,却从未有人敢真正声称已达成。而现在, 一家融资总额不过 470 万美元的小公司,直接跳过了前奏,宣布他们站在了人类文明的新篇章起点。

图丨相关公告(来源:Integral AI)
只不过,其实只要稍微仔细一看,就知道这个所谓的 AGI 水分有多大了。
按照 Integral AI 的说法,真正的 AGI 必须满足三个核心标准:第一是自主技能学习,系统必须能在全新领域中自行习得技能,不依赖预先标注的数据集或人工干预;第二是安全且可靠的掌握能力,学习过程中不能出现灾难性风险或意外副作用;第三是能效比,学习某项技能所消耗的能量应与人类学习同一技能大致相当。
公司表示,工程团队正是以这三条原则作为研发基准,最终打造出了这个“划时代”的系统。

在新闻稿中,他们进一步强调该系统的架构“镜像了人类大脑新皮层的多层结构”,具备构建内部表征、规划行动并在真实物理环境中执行的能力。
更具体地说,Integral AI 把整个体系拆分为“Universal Simulators”(通用模拟器)与“Universal Operators”(通用操作器)两大部分:前者通过视觉、语言、音频以及各类物理传感器等多模态输入,递归压缩与组织感知数据,构建带有层级结构的世界模型;后者则在这些抽象之上进行高层规划,将任务拆解为目标和子目标,只在必要时下钻到细节层面,以此减少推理成本。
公告中还宣称,通用操作器不仅能够调用现有数字 API 或机器人系统完成任务,还可以在现有工具不足时“自行设计并构建新工具”,并通过所谓的 active learning 机制,为自己制定实验计划、主动填补知识空白。
Integral AI 甚至给这套体系配上了一整套类互联网式的基础设施叙事:底层是名为 Genesis 的后端平台,为通用操作器在数字世界和物理世界中执行规划、行动和学习提供运行环境;上层则是 Stream 这样的前端界面,被描述为“能够动态适配人类需求、放大人类能动性”的交互层。按公司的说法,这些组件共同构成了一个“可扩展至超级智能”的文明级 AGI 基础设施。
听上去都相当宏大,但也正是在这里,我们可以发现 Integral AI 的 AGI 定义几乎与 AI 研究界主流认识完全脱节。
OpenAI 在章程中将 AGI 定义为“在大多数具有经济价值的工作中超越人类表现的高度自主系统”;Google DeepMind 在 2023 年论文《Levels of AGI for Operationalizing Progress on the Path to AGI》中强调“跨任务的通用学习能力”和对人类认知功能的全面覆盖。
Anthropic CEO Dario Amodei 今年初在达沃斯论坛上预测,两到三年内将出现“在几乎所有事情上超越人类”的模型。这些定义各有争议,但至少都指向一个共同点:AGI 应当能在广泛领域中展现出人类级别或超越人类的普适认知能力,而不是只在受控环境里完成若干特定任务。
相比之下,Integral AI 提出的三条准则刻意回避了“通用性”这个关键议题。自主学习、安全性、能效,这些确实都是不错的工程目标,但更像是“一个性能良好的强化学习系统应该具备的特征”,而不是 AGI 的充分条件。好比你替奥运短跑冠军下定义:跑得快、不受伤、不喘气。这些条件当然都很好,但你漏掉了最关键的一条:你得跑赢所有其他人。
更让人存疑的是,Integral AI 目前并没有释出任何同行评审论文,也未开放模型供外部验证。他们所展示的,只有一系列高度受控的技术演示,其中包括:
一个机器人实验,据称机械臂可以在复杂真实环境中“完全自主”学习新技能(甚至这个实验还没有视频演示);
Sokoban 推箱子游戏,展示系统如何在极短时间内达到“专业玩家”级别解题效率;
从二维关卡扩展到三维空间的“3D AGI 演示”,模型在简化的 2D/3D 环境中学会导航、记忆、空间推理与决策,被公司描述为未来构建“完整世界模型”的基础;
以及一个“识别笑容”的例子:模型先看嘴角,再看眼睛,以判断笑容真假,声称这是“更高层规划效率”的体现。

视频丨“识别笑容”演示(来源:Integral AI)
就这些 demo 而言,恐怕很难支撑“世界第一 AGI”的断言。无论是推箱子、导航任务,还是表情识别,这些都属于学界在过去十多年里已经反复研究、并拥有成熟 benchmark 的问题;而 Integral AI 提供的展示既缺乏透明度,也没有基准对比,甚至连重复实验的条件都未公开。
难怪未来学媒体 Near Future 直言,这是“一份没人看到任何实证内容的公告”,质疑它究竟是真突破,还是一次包装精美(其实也不是很精美)的营销操作。
那这家公司到底是什么来路?
Integral AI 的创始人兼 CEO 是 42 岁的 Jad Tarifi,2012 年他博士毕业后加入 Google,工作近十年,据说其间创建并领导了 Google 首个生成式 AI 团队。2020 年,他说服上司将自己调至 Google 东京办公室,之后于 2021 年离职,在日本创办 Integral AI。另一位联合创始人 Nima Asgharbeygi 也来自 Google AI 团队。

图丨 Jad Tarifi(来源:Jad Tarifi)
Tarifi 选择在日本创业的逻辑,与我们此前报道的“安卓之父”安迪·鲁宾的判断如出一辙:美国在 AI 软件方面全球领先,但机器人硬件与制造业已显著空心化;日本则恰恰相反,是全球工业机器人产业的核心国家之一,供应链完备。他希望在东京将硅谷的算法优势与日本的机器人产业能力结合起来。
Integral AI 也确实获得了日本机构投资者的青睐:自 2022 年以来,公司累计获得 470 万美元种子轮融资,投资方包括软银旗下 Deepcore、三星的 Samsung Next、IT-Farm、Grit Ventures 等。
但在当今的 AI 创业浪潮中,这个规模只能算九牛一毛。作为对比,同样做机器人 AI“控制大脑”的 Skild AI 在最近一轮融资中的估值已达到 140 亿美元,而 Integral AI 显然不在同一量级。
Tarifi 本人近年来则频繁出现在科技论坛和媒体上,发表不少引发争议的观点。2025 年 8 月,他在采访中称年轻人现在去读博士、学医或学法律可能是在“浪费时间”,因为 AI 发展太快,等他们毕业时这些知识早已被机器掌握。这番言论虽然引来批评,却也让他获得了更多曝光。从某种意义上说,这位前 Google 高管似乎很懂得如何制造话题。
回到这次的“AGI”公告本身。从技术角度看,Integral AI 所描述的三个关键属性(能自主学习、能在物理环境中执行任务、具备能效优势)如果全部属实,当然算得上有一定突破。但关键在于那四个字:如果属实。在没有公开论文、没有独立验证、没有第三方复现的情况下,任何机构声称自己实现了 AGI,基本只是徒增笑料。
当然,也不排除 Integral AI 在某些细分方向上确实取得实际进展,只是选择用“AGI”这一极具冲击力的词汇来包装。初创公司为了吸引关注、争取融资,在措辞上大胆一点并不罕见。但问题在于,一旦你使用了“AGI”“人类文明新篇章”“超级智能”这样的词语,你也必须承担与之对应的举证责任,而目前 Integral AI 并未履行这一点。
就在不久前,《麻省理工科技评论》还发表长文,将 AGI 称作“我们时代最具影响力的阴谋论”,认为这一概念正被科技公司操控,既可用于推产品,也能用来渲染末日情绪,是种万能叙事工具。Integral AI 的这份新闻稿,无意中为这一批评提供了又一个注脚。
对此,我只能说,建议将“AGI”这个词,纳入广告法监管。
参考资料:
1.https://www.integral.ai/agi
2.https://www.businessinsider.com/google-ai-team-too-late-phd-ai-hype-jad-tarifi-2025-8
3.https://interestingengineering.com/ai-robotics/worlds-first-agi-model
文章来自于“DeepTech深科技”,作者 “KIK”。