
在本次 Z Potential 独家专访中,我们邀请到了 Striker Venture Partners 合伙人、Skild AI 与 Reflection AI 的早期投资人 Brian Zhan,深度解析他在 AI 时代如何快速投出明星级别的独角兽公司。
ZP: Brian,恭喜你刚刚加入了 Striker Venture Partners,与四次入选 Midas List 的投资人 Max Gazor 搭档。但在此之前,你已经建立了非常出色的投资战绩——在这些前沿实验室还远未成为共识时,就投中了 Reflection AI、Skild AI、Dyna Robotics、Periodic Labs,以及最知名的一批 AI Infra基础设施公司:Lepton(被英伟达收购)、Voyage(被Mongo DB收购)、LanceDB。这些在当时都不是“主流跟风”项目。你觉得你当时是看到了什么,是其他人忽略的?
Brian: 我一直在寻找一种特定的模式:顶尖技术人才 + 大多数人认为“几乎不可能解决”的问题。
以 Reflection AI (美国版DeepSeek,融资20亿美元,半年估值暴涨15倍)为例——我们投资时,他们刚刚把世界上最优秀的一批RL强化学习研究者聚到一起。那时,市场的注意力几乎都被 Transformer 的 scaling law(扩展定律)占满,大家关注的都是参数规模、数据规模和算力;但我们看到的是:RL(强化学习)会成为让 Agent 基础模型真正“好用、可靠”的关键突破口。
这支团队真正抓住了一个本质:你不能指望仅仅通过 prompt 设计,就让一个Agent 变得稳定、可靠。你需要的是能够“犯错—纠正—在交互中持续改进”的模型,并在这个过程中发展出真正的推理能力。对于 Lepton、Voyage、LanceDB 等基础设施项目,我们看到的则是另一种前瞻性:他们在搭建的是下一代 AI 应用必不可少的底层基建——而在那个时间点,大多数人甚至还没有意识到“自己未来会需要这些东西”。
ZP:Skild AI 现在被很多人称作“机器人领域的 OpenAI”。你投资 Skild 和 Dyna Robotics 的时候,机器人在VC眼里几乎还是“资本坟场”。是什么让你在那个节点,反而选择坚定押注这个方向?
Brian:我一直认为,机器人的 GPT 时刻已经到来,只是大多数投资人还被过去几十年一茬又一茬失败的机器人创业公司“创伤”过,很难重新建立信心。
真正发生变化的是三件事:基础模型的出现和成熟;来自 Open X-Embodiment 等项目的海量机器人数据;一批真正懂得如何弥合 sim-to-real(从模拟到现实)鸿沟的团队,
Skild 在做的是一个可以在任何任务、任何环境、任何机器人硬件上泛化工作的基础模型。这件事一旦成立,是彻底“范式转移级别”的:你可以用比今天主流做法低几个数量级的成本,去构建真正有用的机器人系统。Dyna Robotics 在“机器人基础模型”上的洞察其实高度类似——但他们很聪明地选择了少数几个垂直领域深挖,因此扩张速度非常快。这些项目做的都不是“小改小打”的性能优化,而是直接重写整个行业成本结构的架构级突破

ZP:你说你现在把 AI for Science 作为一个核心投资主题。但从外界视角看,“计算生物学被承诺了几十年,却始终没有真正兑现”。在你看来,现在到底有什么不同?
Brian: 我会把这个行业的时间节点说得非常具体:真正意义上的 AI-for-science,不是在 2012 年,不是在 2018 年,而是 在 2025–2030 年之间。区别在哪里?在此之前,我们的模型并不能在科学表征本身内部进行推理,更多是在“关于科学的文本”上做模式匹配和自动补全;而现在,前沿模型第一次能够在科学概念空间里做真实的推理(reasoning),而不是只做近似拟合; 重新发现人类理论家需要数月才能推导出的复杂定理;解读那些尚未发表的实验数据,并给出下一步最值得做的实验设计;生成领域专家自己都错过的机理假设(mechanistic hypotheses)
过去所谓的 “AI for science”,更多是把一个 ML 模型硬塞进既有工作流里,成为一个更好的工具或自动化模块;而现在发生变化的是——模型已经跨过了一个“智力门槛”:它们开始真实地参与科学推理过程本身。这不再是“更快的数据库查找”,而更像是在概念空间中进行搜索与探索(concept space traversal)。
ZP:你提出过“数字生物系统(digital biological systems)”这个概念。具体来说,它在你心中意味着什么?
Brian: 对我来说,“数字生物系统”有两层含义:第一,统一视角下的多尺度理解——模型能够同时在分子、细胞、组织多个尺度上,去理解生物通路,把它们视为一个统一的动态系统。它可以在几分钟内回答类似这样的问题:“如果我改变这个受体的糖基化状态,两周后下游的转录状态会发生什么变化?”而这在传统 wet lab+计算的流程里,往往意味着数周乃至数月的实验与分析周期。 第二,在组合空间中的高效导航能力;在蛋白质设计、材料发现等高维组合空间中,这类模型可以比暴力计算快几个数量级地完成搜索与优化。
这就是我所谓的 “复合科学智能(compound scientific intelligence)”:模型不再只是辅助某一个孤立任务,而是整体加速整个科学循环:文献 → 假设 → 实验设计 → 数据分析 → 后续实验。当一个模型能把原本需要几个月的周期压缩到几个小时时,整个科学领域的运行方式都会随之改变。
ZP:你曾经说过“今天的 Agent 还不能真正工作”,这一点你也赞同 Andrej Karpathy 的判断。但与此同时,你又对下一代 Agent 公司极为看好。因此要让Agent 真正“work”,你认为还缺什么?
Brian: 我觉得 Karpathy 把当下的核心认知缺口讲得非常准确。当前Agent之所以不行,在于它们缺失了一整组能力:智力(Intelligence)本身还不够强;真正的多模态能力还远未成熟;对计算机的实际操作能力(Computer Use)仍然薄弱、不鲁棒;缺乏真正的持续学习与自我改进机制(Self-Improve)。
但在我看来,最大的缺失部分是:Agent 无法构建共享的书面记录,也无法把知识有效传递给彼此。每一个 Agent 基本都在“从零开始重新学习世界”。想象一下,如果每个人类在出生后都必须完全从头重新发现一切,而无法继承社会、文化与知识积累——这基本就是我们今天的 Agent 世界。
我最感兴趣的团队,都是把这些问题当作系统层面的问题(System-level Problem),而不只是“模型还不够大”的问题在对待:他们在设计的是新的认知架构(Cognitive Architectures);让 Agent 能够在超长时间尺度下保持上下文;能够真正从部署中学习,持续更新世界模型;能够在 Multi-Agent 之间共享知识与协作。当我们把这套系统级问题真正解决掉时,自动化能力会迎来一个非常明显的阶跃式变化。
ZP:Striker 的基金结构也很特别——每支基金只投 10 家公司,单个项目最高可以投到 3000 万美元。这在 VC 里属于极高的集中度了。为什么会选择这样一种模式?
Brian: 真正的深度合作需要高度的专注。当你在公司还非常早期的时候就写出一张 3000 万美元的支票,你做的绝对不只是“投一笔钱”——而是从 Day 0 起就加入了这段旅程。在这种模式下:我们的网络、资源、时间投入,和创始人的成功高度绑定。当公司遇到困难时,我们没有空间躲在“投资组合理论”后面说“没关系,这只是组合里的一个 small bet。”。这种高集中度迫使我们在一开始就极其挑剔,只和我们真正深信的少数团队站在一起;但一旦决定站队,就会all-in 式地支持。Max 和我都相信,这种强一致性,是孕育非线性成果的土壤。
ZP:你提到过一句话——“在显而易见之前构建(build before it’s obvious)”。但在实践中,如何区分“还不明显的机会”和“根本不会成功的方向”?
Brian: 对我来说,关键在于:创始人是否抓住了一个“别人还没意识到的具体突破点”。这并不是为了“逆向而逆向”,也不是刻意要和主流唱反调,而是要搞清楚:哪些约束正在被打破?是什么技术或系统性变化让这个方向“此刻突然变得可行”?对 Reflection 来说,是提前看到 RL 会解锁Agent的真正能力;对 Skild 和 Dyna 来说,是意识到 跨体现学习(Cross-embodiment Learning)将使通用机器人成为可能。
最好的创始人,往往能非常清晰地讲明白:“哪一个变化,让这件事在两年前几乎不可能,而现在突然真正可做?”如果一个团队说不清楚这一点,那通常只是“逆向叙事”;但如果他们能把这个“被打破的约束”讲得极其具体,那就值得认真对待。
ZP:那么,在你现在的布局里,最“非共识”的赌注是什么?
Brian: 我相信,下一家市值千亿美元的公司,会来自一支此刻几乎没人听说过的技术创始人团队——他们正在解决的问题,大多数 VC 甚至都还没开始 track。最大的机会往往出现在这样一些类别里:它们还不存在于任何投资机构的“重点赛道”文档中;甚至也没有成熟的标签、标准化 pitch deck 或显性的市场叙事。这也是为什么我们宁愿把注意力放在:技术深度(technical depth)和目标清晰度(clarity of purpose),而不是“和现有 playbook 有多匹配”。真正会定义未来十年的那些创始人,现在大多都在隐身模式(stealth mode)下构建,解决的也是我们大部分人甚至不知道存在的问题。
ZP:最后一个问题——你想对那些正在“在显而易见之前构建”的技术创始人,说些什么?
Brian: 不要等市场来帮你验证你的洞察。如果你已经看到了一个别人尚未注意到的技术突破,如果你真正理解:为什么某些事情现在可能而而在过去几年里还完全不现实,那你就应该更坚定、更快速地行动。构建一家真正变革性的公司,最佳时机往往是:你想做的事情还没有名字的时候。在那个阶段:你可以招到最优秀、最有好奇心的人;你可以按自己的方式去定义问题空间,而不是被迫挤进已有的框架;你可以专注地构建,而不是每天被“竞争对手动态”牵着走。
如果你已经在做的,就是和一群杰出的人一起,面向那些困难但刚刚变得可行的问题——那我们非常应该聊一聊。
文章来自于微信公众号 “Z Potentials”,作者 “Z Potentials”
【开源免费】字节工作流产品扣子两大核心业务:Coze Studio(扣子开发平台)和 Coze Loop(扣子罗盘)全面开源,而且采用的是 Apache 2.0 许可证,支持商用!
项目地址:https://github.com/coze-dev/coze-studio
【开源免费】n8n是一个可以自定义工作流的AI项目,它提供了200个工作节点来帮助用户实现工作流的编排。
项目地址:https://github.com/n8n-io/n8n
在线使用:https://n8n.io/(付费)
【开源免费】DB-GPT是一个AI原生数据应用开发框架,它提供开发多模型管理(SMMF)、Text2SQL效果优化、RAG框架以及优化、Multi-Agents框架协作、AWEL(智能体工作流编排)等多种技术能力,让围绕数据库构建大模型应用更简单、更方便。
项目地址:https://github.com/eosphoros-ai/DB-GPT?tab=readme-ov-file
【开源免费】VectorVein是一个不需要任何编程基础,任何人都能用的AI工作流编辑工具。你可以将复杂的工作分解成多个步骤,并通过VectorVein固定并让AI依次完成。VectorVein是字节coze的平替产品。
项目地址:https://github.com/AndersonBY/vector-vein?tab=readme-ov-file
在线使用:https://vectorvein.ai/(付费)
【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。
项目地址:https://github.com/Significant-Gravitas/AutoGPT
【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。
项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md
【开源免费】LangGPT 是一个通过结构化和模板化的方法,编写高质量的AI提示词的开源项目。它可以让任何非专业的用户轻松创建高水平的提示词,进而高质量的帮助用户通过AI解决问题。
项目地址:https://github.com/langgptai/LangGPT/blob/main/README_zh.md
在线使用:https://kimi.moonshot.cn/kimiplus/conpg00t7lagbbsfqkq0