OpenAI 正在逐渐偏离 AGI 吗?
最近在 Reddit 上有个热帖引发了不少讨论。
原文链接:
https://www.reddit.com/r/ChatGPT/comments/1nblesf/remember_when_chatgpt_could_just_talk_thats_gone/
作者回忆起最初的 ChatGPT,只需要随意聊几句,他就能揣摩你的意图,给出启发性的回答。
而现在的 GPT-5 变得过于专业,更像是为程序员和工程师服务的工具。他说必须给出极其细致的指令,按照工程师的思考模式去提问,才能获得理想的输出。
在作者看来,这种需要门槛的对话,是扼杀了 OpenAI 迈向 AGI 的可能。同时他还提到,OpenAI 近期的收购,都暗示着它的产品路线,正在从面向所有人转向专业人群。
不过,评论区里最热的反驳声音却很微妙,他们都在说这篇批评 GPT-5 的文章,本身就是 GPT 写的。
这场争论的背后,无非就是讨论,AI 的发展究竟要服务谁?是少数专业人士,还是广大普通用户?大模型的发展路线,又是否适合 AGI?
在今年五月,Khosla 举办的 CEO 峰会上,硅谷知名投资人 Vinod Khosla 和奥特曼,也聊到了类似的命题,关于 AI 的未来走向,哪些能力会被强化,哪些人类价值不会被替代。
他们还探讨了 AI 从聊天机器人,到 AGI 的成长、以及 AI 在将来,如何重新定义我们的开发、学习和创造。
Vinod Khosla 是科斯拉风险投资公司 Khosla Ventures 的创始人,科斯拉也是 OpenAI 最早的投资公司之一。
这段访谈视频最近才正式公开,那个时候的奥特曼还没有,费心尽力地为他的 GPT-5 营销,而是谦逊地讨论着,AI 到底要把我们带向何处。
太长不看版:
1、AI 让每个人都有机会写出自己想要的应用,那些软件即服务 SaaS 的公司产品,如果不能很好地适应这个变化,会承受相当大的损失。
2、奥特曼认为,尽管所有的工作,AI 都有机会能胜任,但是人与人的连接,是 AI 永远无法取代的。同样一句鼓励的话,从一个真实的人那里听到,和从 AI 的聊天界面看到,感受是完全不一样。
3、ChatGPT 从 0 到 1 的进展让人觉得震惊,但现在,即使我们在接下来的 18 个月,做出了从 10 到 100 的突破,大家也不会感受到冲击,因为我们每个人都已经接受了 AGI 马上就要到来。
4、AI 在加速 OpenAI 的研究和发展,但下一个万亿级公司,不会是另一个 OpenAI。无论是投资人,还是想要自己做产品的人,都应该追逐未来。而未来,就是假设我们现有模型的能力,会按照每年 10 倍的数量级增加。
5、奥特曼提到 ChatGPT 的诞生并不是一帆风顺,最开始他们并不知道要做一个什么样的产品,只是公开 API,试图让其他人去想具体的产品,但当时都是拿这个模型来做文本生成。最后,是 playground 里的聊天,启发了他们做一个「什么都能聊」的聊天机器人。
6、做决策很难,要做一个「新的东西」,要做的决策更多更难,奥特曼说即便是向 ChatGPT 求助如何做决策也没有一点帮助。OpenAI 能做的只是尽量去做新的东西。
7、能源非常重要,即便 DeepSeek 的出现让效率高了很多,但是未来 AI 的定价,可能就是我们的电价。
Sam Altman & Vinod Khosla(右),AI 将把我们带向何处
🔗 访谈视频:https://youtu.be/6NwK-uq16U8
Vinod Khosla:我想从我们聊过多次的话题切入,想象 2035 年之后的世界,大概 2035 到 2050 这段时间,时间框架刻意说得宽泛一点。你觉得那个时候世界会是什么样?
Sam Altman:嗯,我觉得人们依然会坐在一起吃午饭。从某种意义上说是这样的。
Vinod khosla:还会「工作」吗?
Sam Altman:但我确实认为那段时间的技术变革速度,会让现有框架难以适用。我也很难做出精确的预测,比如「我们会开始建戴森球」或者「我们已经搞定了纳米机器人」等等。很多类似的事情,我觉得会非常不一样。
戴森球:是弗里曼·戴森假想的一种巨型工程,在恒星周围建造结构/卫星群以捕获其大部分能量供文明使用。
也许人的体验变化没那么大,进化需要很长时间,生物学在很长的时间里烙下了很强的驱动。但就「技术栈中可以实现的事」和「一个人能完成的事」而言,感觉会非常不同。
财富杂志 500 强企业
Vinod Khosla:再具体一点。今天的公司会怎样?我认为 2030 年代《财富》500 强的「消亡速度」会比以往更快,谁能活下来,谁活不下来,将取决于他们的应对。你同意吗?
Sam Altman:我不太确定。直觉上我会说更快,但我没深想过。我最近主要关注的是软件公司,我在 OpenAI 之外的大部分时间都花在软件公司上。
我曾以为自己理解了软件公司的「物理学」。但如果我们正走向一个「你想要的任何软件都能被即时写出来」的世界。也就是说,当你想做一件事,你只要在 AI 聊天框里输入点什么,就能得到一个很棒的软件。
因此,与其去买这家或那家 SaaS 公司的产品,你只需说「运行」,它就发生了。这感觉是个非常重大的变化,而且离我们并不遥远。
Vinod Khosla:我们稍后会聊聊接下来 18 个月的情况。
Sam Altman:不过那些管理复杂供应链的《财富》500 强大公司,在物理世界上来说,总是更慢一些,软件方面的变化感觉更近。
Vinod Khosla:可到了 2040 年,物理世界改变的时间也足够了。这就是为什么我取 2035 到 2050 这个区间;2035 也就十年后而已。
Sam Altman:我相信大多数现有公司,会因为适应不够快而遭受相当大的损失。
Vinod Khosla:这一直在发生。
Sam Altman:是的,已经发生很久了。我的感觉是,新公司的增长加速,从既有巨头那里「拿走份额」,这是一条大的指数曲线。新公司可以更快地做大、变得更重要。OpenAI 就是个例子,我们成长得非常快,非常大。
Vinod Khosla:是这样。在那个时期,有没有某个职业,就像我们在座的创业者,可能正在构建 AI 医生、AI 治疗师、AI 肿瘤科医生、AI 结构工程师、AI 芯片设计师,当然还有 AI 软件工程师、AI 销售、AI 市场、AI 会计……这些今天都在发生。
美国非农业就业人数变化
假设这些,无论是这些公司成功,还是竞争对手成功,它们会走向成熟。那么在 2035 年及以后,在「智力劳动」的世界里,有没有哪些工作,是 AI 至少无法完成 80% 的?
Sam Altman:有很多工作我不认为你会愿意让 AI 去做,或者说很多人不愿意让 AI 去做。也会有新的工作类型,是人们尤其想要由人来做的。我们天生会在意他人,这是那些深层生物学因素之一。
所以,也许你可以拥有一个很棒的 AI 老师,但它未必像一个平凡的人类老师那样能激励你。我完全能相信这一点,「知道对方是不是真人」这件事很深刻。
Vinod Khosla:嗯,我可能不同意。我觉得 AI 老师能做的更多,对你的理解也更深入。
Sam Altman:但我认为很快就会有一个远胜于你的 AI 投资人,这点毫无疑问,不过我个人仍然更喜欢和你一起吃饭。
而且你要是跟我说「做得好」或者「你应该这么做」,这对我的激励比 AI 说同样的话更大,所以我觉得你依然会有工作。
Vinod Khosla:我绝对同意。毫无疑问,我的工作,并不比其他大多数工作更安全。
Sam Altman:一定程度上来说,是更不安全,不过还有另一个点。
Vinod Khosla:是啊,Marc Andreessen 认为风投是唯一安全的工作,但我从根本上不同意。
Sam Altman:我其实想过要不要做一个 AI 创业投资人。我很久以来一直在思考这个问题,但我认为以当前的模型,或许已经可以做到。这也会是个挺好玩的小项目。
Vinod Khosla:在「人际关系」这个部分我同意你,但像教学、医疗等服务,我原本想的是:有哪些工作是 AI 做不了的?然后问题变成了,在更短期里,谁来把这些变成现实?
Sam Altman:就老师这个点再推进一点,从某种客观意义上说,我从维基百科里学到的(或能学到的),可能比从任何老师那里都多。
但当我回想,那些真正推动我学习进程的「人」或「时刻」,它们都与某些特定的人相关,他们和我建立了连接,对我感兴趣,了解我、关心我,而我能感受得到。
尽管现在这种关系的一部分,会被人和 AI 的关系所复制。但我认为,整件事会更怪异、更复杂、更不均衡。
表面上看,AI 似乎能做很多不同的工作,可能是「几乎所有工作中的几乎所有事」。但我们会发现,生物性的编程是很难克服的。
生物性编程(biological programming)指的是人类经过漫长进化,在基因和大脑中「写死」的本能驱动力和行为模式。比如生存、情感和社会需求、亲情和关怀等
Vinod Khosla:我完全同意。事实上,我今天早上还谈到生物性编程不会演化这件事。我们依然会渴望地位,依然会竞争,依然会有注意力经济中的网红,我们依然会关心孩子、长辈和家庭,而且我们会有更多时间去做这些。我赞同这些,但让我把时间拉近一点。
大概 3 年半前发生了所谓「ChatGPT 时刻」,其实是 2 年半,那就从那个时间点往前推 5 年,也就是从现在起再看,比如甚至只看接下来的 18 个月,到 2026 年底。
相对于 2 年半前「ChatGPT 时刻」到今天我们看到的变化,你预期从今天到 2026 年底 AI 的能力会有多大变化?我现在把时间线拉得很短了。
Sam Altman:我不确定怎么衡量。如果从「感受」层面,我觉得从「没有」到「第一个版本的 ChatGPT」,可能是大多数人一生中感受最强的系统性冲击之一。
之前根本没有这玩意儿,现在突然有了,尽管它一开始并不怎么好,但从 0 到 1 的时刻很重要。
也许现在,我们已经从 1 走到了 10,从某种意义上讲,这本该是更大的事。但我觉得对大多数人来说,感受并不那么强烈。
也许我们接下来 18 个月会从 10 到 100,但我觉得大家已经接受「AGI 会发生」这件事,然后生活照常继续,你们仍在做各自做的事。
此前大家预期中的 GPT-5
Vinod Khosla:所以不会比从 0 到 1 的进展更少?
Sam Altman:再说一遍,我觉得就「实际进展本身」而言会令人震惊,但人们的预期就已经是知道了,会很震惊;而当初的 ChatGPT,对大多数人来说是完全没预料到的。
所以我不认为,未来的进展还会像之前一样,让人感到疯狂,尽管我觉得实际的影响会大得多。
Vinod Khosla:我斗胆猜测,大多数人并没有真正校准「从 10 到 100 的下一个 10 倍变化」的量级?
Sam Altman:一年前、两年前我肯定会同意,但现在我有点意外。就像只是在旅行中,跟随机遇到的人聊天,他们会说:「哦,是啊,AGI 差不多要来了」、「电脑已经比人聪明很多了,还会变得更聪明,一切都会大不相同。」我觉得大家的认知确实有了很大的更新。
Vinod Khosla:所以这一切都是因为「规模定律 Scaling Law」。有很多不同的规模定律,跟我们讲讲这类指数式变化背后的机制,是什么在驱动它?
Sam Altman:是的,宏观上来说,我们的做的事情,并没有变化太多。
我们不断发现更好的算法,所以不断找到更「陡峭」的规模定律;我们不断学会如何建更大的计算机、更强的芯片,并把更多芯片连在一起;我们不断找到更多数据和更好的数据。
持续学习(continual learning, CL)是机器学习领域的一个关键问题,旨在使模型在不断学习新任务的同时,避免灾难性遗忘,保持对先前任务的记忆。
我觉得我们会开始,把这些系统以新的方式组合起来,并实现某种持续学习,系统长期运行、越来越聪明。
过去几年的主线,确实也就是:更好的算法、更大的计算机、更多的数据。
我真希望能说出更深刻、更有洞见的东西。但很多算法进展令人难以置信,当然包括我们在「推理」方面,以及最初「无监督学习」的理念,我都归到那一类,还有一些较小的突破。
总体上,就是不断打磨。这让我想起历史上任何「科研 + 产业学习」的组合,比如晶体管之类。
Vinod Khosla:所以有规模定律,而且有多种规模定律(要是你问 ChatGPT,它会定义多种类型)。但我还想到另一个因素:你觉得 AI 科学家什么时候会开始承担大部分 AI 研究?
Scaling Law 意味着投入越多的算力和数据,模型智能程度会越高
Sam Altman:我觉得会非常渐进。不是那种,就比如说,现在一个 OpenAI 的研究人员在用 Codex,它生成了他们 10% 的 PR,然后 20%、30%;接着它开始自己去测试一些新的模型架构,但研究者仍然在「指挥」。
然后 AI 可能又多做了一些,比如提出要测试的假设,但研究员仍然觉得自己只是变得更高效了,可能会说:「我完成了 100% 的研究,只不过工具更好了。」
但如果那个研究员现在输出的,是以前的 2 倍或 10 倍,比如说 10 倍,那么你是否认为 AI 在这个时候完成了 90% 的研究?还是 0%,因为它并没有完全自主地完成整个循环?我认为这将是一种混乱的联合加速过程。
Vinod Khosla:我们不必去度量它,但可以观察「进步速率和加速度」。除了刚才说的规模定律之外,这种变化率,还会发生什么?
Sam Altman:我认为从现在起,每一年我们都会在研究前沿走得更快,因为我们有了更好的工具。
至于你愿不愿意称之为 AI 在辅助人类、还是人类在辅助 AI、还是 AI 自己在做研究,最终效果都是更快。
不仅是算法进步更快,整条「供应链」都会更快:如果 AI 帮我们更快地建设数据中心,如果它帮我们更快地研发新型芯片(包括很「异质」的那种),我觉得这些都算。
所以如果你从「进展速率」的角度看,只要 AI 以某种方式在加速这件事,你就把它算作「AI 在做研究的一部分」,那么答案就是:会快得多、快得多。
Vinod Khosla:对我来说,关键测试是:AI 是否能自己提出新假设、自己测试、再修正这些假设——这是个「良性而猛烈」的循环。
Sam Altman:我的视角稍有不同。我们在乎的是「我们多快能做出更好的研究」。如果 AI 自己提出假设也好,或者它让人类提出了人类本来不可能提出的假设也好,我同样高兴。
Vinod Khosla:很多 LP(有限合伙人)会问我一个问题:赢家会不会因这种加速而「巩固领先」?如果「研究加速」的假设成立,那么你们和其他领先者就能延续领先,新玩家要从零起步会更难,除非走完全不同的路线。
这会不会让 OpenAI 拥有优势、估值持续上升,这是很多人关心的问题,我当然希望如此。
Sam Altman:如果我是 LP,我会把 0% 的时间花在「怎么投另一家 AI 研究实验室」,把 100% 的时间花在「投接下来要出现的东西」。
VC(风险投资) 也常常在这方面很糟糕,但你不是,你还不错。总体上,全球资本的注意力太多地追逐「上一批赢家」,而在那里你几乎赚不到大钱。
真正的大回报几乎总是来自这样一种投资:世界因为某项新技术变得「可以做某些原本不可能的事」,然后你去投那些非常不成熟、但你对其有差异化洞见的东西。
现在,大家都想投「下一家 OpenAI」,而下一个万亿级公司,多半不会是另一家 AGI 研究实验室;它更可能是「因为 AGI 作为一项新技术存在」,而建立起来的新事物。
就像 OpenAI 刚起步时,大多数人想投的可能还是「另一家 Facebook」或「另一种加密货币」。
Vinod Khosla:我得讲个趣事:当我们投资 OpenAI 的时候,这是我 20 年里,唯一一次给所有 LP 发「道歉信」的投资,我说,「我知道这看起来很奇怪,但我们还是要投」。
Sam Altman:总之,我认为这是一个非常令人兴奋的时代,因为新领域的开放程度比我以前见过的任何时候都要大。
当 OpenAI 成立时,我们的领域,是通过研究突破打开的,比如加密市场带动了 GPU,以及在那方面取得了许多新的进展,还有一些其他事情,但并不多。
我记得那个时期,我认为值得投入精力去做的事情清单非常、非常短。而现在,我认为值得投入精力去做的事情清单却极其庞大。
我认为这就是人们应该去投资的方向,无论研究成果最终回到 OpenAI 身上还是其他人。
再回到「晶体管」的类比。当时也只有少数几家公司是真正的「晶体管公司」,然后大多数消失了,少数存活。
现在看看这个房间里那么多包含晶体管的东西,我们不会把它称为「晶体管设备」或「晶体管公司」,它只是成为一种技术,促成了一整套新的公司(包括 OpenAI)。
这就是应该去追逐的方向,现在是资本配置者,极其兴奋的时代,你应该追逐「未来」,而不是那些在过去奏效的东西。
Vinod Khosla:回到 ChatGPT 发布。最让你意外的是什么?基于你看到的用户行为,你的想法又如何演变?
Sam Altman:让我再往前倒一点。科技公司的传统是,先做一家产品公司,做成功了,再附加一个研究实验室,这有时很成功(比如 Xerox PARC),有时很糟。
OpenAI 是据我所知,唯一一个「先创建了一个运行良好的研究实验室,再附上一个运行糟糕的公司」的例子。
到 OpenAI 成立 4 年半的时候,我们一开始并不打算做产品。但后来很明显,因为规模定律和我们需要的资本规模,我们不得不去打造一家非常大的公司,而你要有产品,才能有公司。
我们当时有个模型叫 GPT-3,我在给公司施压,得想出一个产品;但我们做不到,它不够好。
我记得 Paul Graham 有个建议一直刻在我心里,「无论如何你都应该做一个 API,只要做了 API,好的事情就会发生」。
于是我们想,既然没有产品 idea,那就「众包」给全世界吧,把 GPT-3 放进一个 API,也许别人会想出用法。
AI 文字内容创作工具 jasper
全世界只想出了一件能赚钱的事,就是「文案生成」应用。我都忘了公司名了,但确实有几家公司很快就成了十亿美元估值,它们用 GPT-3 给网站生成文案再转售,等等。
大家也尝试了别的,但没有别的公司做成。不过我们有个叫 playground 的东西,你可以在那里测试提示词,看看会返回什么。
其实这就是个是「沉睡的爆款」,它当时有些人在用,但不是很多,有些人会整天跟它聊天。
那还是我们没搞定 RLHF(基于人类反馈的强化学习)、也没有 GPT-3.5 之前,所以并不好,但已经有清晰的用户信号:人们想和模型对话。
鉴于除了文案之外,唯一有真实牵引力的就是这个,我们就说:也许这就是我们该做的产品。
于是我们开始做一些研究,让模型更容易被「指挥」;以前你得写很复杂的提示词,现在我们也有了更好的模型。
然后我们决定做一个聊天界面,原本计划还要做些别的东西。
OpenAI 内部有个很大的担心:既然是聊天,它必须是某种特定类型的助理吗?比如帮助你学习或达成某个目标?如果只是「闲聊」,人们会不会愿意?还是会觉得「不知道说什么」?
所以我们差点就把它搁置了,但还是上线了一个「可以聊任何东西」的预览版。
另一个有趣的体会是:我们当时有个测试用户群,而很少有用户(那时模型很差)能留存下来,留存率糟糕透顶。但对于那些留下来的用户,他们的使用会随时间增加。因为这个原因,我们几乎没有启动它。
一个我后来反思的重要经验是:如果你的产品有任何留存,那其实就很不错了,哪怕只有 5%,也完全没问题。我们当时常态几乎总是「直线滑到 0」,但我没那么直觉地理解这一点。
Vinod Khosla:你们现在公开的 ChatGPT 用户数量我不清楚,那你对 ChatGPT 的愿景是什么?
Sam Altman:OpenAI 的愿景是希望打造一套小型产品和一个平台,你可以将其与任何其他服务结合使用,成为你的默认个人 AGI。
这是一个能够了解你、连接你的资源,并以你期望的方式运行的系统。如果你希望通过聊天界面使用它,可以;如果你想以新的方式,使用社交产品或娱乐产品,也很好;如果你希望通过智能体和其他工具完成大量工作,同样也很棒。
而且,如果你希望能够登录到任何其他服务,并带上你的智能,我们也会提供这样的功能。
Vinod Khosla:所以这不只是「随叫随到的智能」?
Sam Altman:从某种层面说,我们卖的就是这个。但把它做成出色的体验,并在不同方式中整合进去,价值很大。
Vinod Khosla:下一个十亿用户会是什么样的使用场景?同样的用法?会扩展吗?会有很多不同的细分吗?你怎么想?
OpenAI 简要的产品路线图
Sam Altman:我不想把我们的产品路线图逐条过一遍。但我认为我们仍处在「终端(terminal)阶段」的 AI,而我其实喜欢终端,挺好用的。
但当我们围绕它去构建「现代计算机界面」的其余部分时(不意味着外观上就像现在的电脑),就像实现一个等量级的前进台阶,它会更易用、更强大、更容易被多数人接近。
Vinod Khosla:我听你说过,ChatGPT 是「智能的操作系统」。
Sam Altman:还不是,但我们希望把它做到那一步。
Vinod Khosla:那缺什么?
Sam Altman:说真的,几乎所有都缺。我们还很早期,我们有一整个「早期」的……
Vinod Khosla:但肯定有你觉得缺的东西。
Sam Altman:是有的。
Vinod Khosla:好吧,如果你不想谈缺什么,那说说做得好的吧。
Sam Altman:那就又回到我们的产品路线图了。
Vinod Khosla:好,换个话题。除了个人用途之外,企业用例也很重要,谈谈这个。
Sam Altman:我觉得有两个有趣的方向。一是「虚拟同事」的概念,用 AI 让企业必须做的所有事情都更好,而这已经在发生了。编码智能体是一个显而易见的企业应用,客户支持中的 AI 智能体也很棒。我认为在大多数企业,AI 完成的任务占比会越来越高。这条路径已经很明显。
另一个我更兴奋的是,让一家企业可以把「一整个计算集群」投向一个特别难的问题,这意味着什么?科学发现是也许最让人兴奋的例子,但还有很多非常难、非常有价值的问题,如果能解出来,就会开启全新可能。
随着我们拥有可以深入思考问题的 AI,我认为这在根本上会属于企业领域,比如发现一种新材料,或者弄清楚如何优化某个非常复杂、非常困难的供应链。
Vinod Khosla:我很期待,看到在企业环境中的短期发展方向。我们已经讨论过 AI 科学家,除了为 AI 服务的 AI 科学家之外,还有材料科学、生物学或其他领域的科学家。
我认为你提到过这些模型中,某个层面的能力将在未来某个时刻出现。在没有新能力的情况下,这些技术在企业中,短期内会在哪些方面,产生最大的颠覆性影响?而你的短期收入将来自哪里?
AI Coding 市场非常大
Sam Altman:我猜在最最短期内,AI 软件工程师会是对企业最具颠覆性的东西,公司在这上面的投入最快、最多。这背后有些古怪但有利的原因,它能直接映射到多数公司的「限速试剂」(瓶颈)和收入机会。
所以我会押注,AI 软件工程师将是今年下半年的大新闻,当然还有其他应用。但你会看到掌握这项能力的公司或团队,显著地超越其他人。
Vinod Khosla:显然,软件开发是大家都公认的重大新领域。那传统的企业职能呢?
Sam Altman:这已经不再是一个理论性的事情了,比如我们听到一些公司说,我现在用 AI 处理所有的客户支持,用 AI 进行所有的销售提升,或者其他领域的工作。
这些都在发生。我只是认为它不会产生同样显而易见的影响。
Vinod Khosla:换个话题。你在 OpenAI 经历了很多在极度不确定性下的决策:技术能不能奏效、会怎样演进、竞争对手会做什么。哪些是最难的决策?哪些被证明对了,哪些错了?你怎么想?
Sam Altman:对我来说,最难的不是某个具体的单一决策,而是「我们必须同时做的决策数量」和「我们必须同时做的事情数量」,以及它们之间高度的相互关联。
我从未找到很好的建议,所以我们只能摸索着干。如果我们能在我们想要的规模上运作、做我们想做的那么多事,但把需要做的决策数量砍一半,生活会轻松很多。
但现实是我们在这方面超负荷。我不知道该怎么办,因为我们确实必须一次做很多事:我们要运行一流的研究项目、要建设大规模基础设施、要搞定所有这些产品,清单很长。
我觉得硅谷并没有关于「如何快速做很多决策」的好经验,关于「如何做少量决策或少数大决策」的好建议倒是有。
OpenAI 早期核心成员,从左到右依次为 ,Ilya Sutskever(离职), Sam Altman, Mira Murati(离职), and Greg Brockman
但我还没想出,如何把 OpenAI 变成一个「只需要做少量大决策」的组织,这可能是最能帮助我们的事。
我们问过 GPT,但是没用。
Vinod Khosla:我最近听到 ChatGPT 的最佳用途之一是:有人说它作为高管教练,比他们用过的任何高管教练都好。
Sam Altman:它在治疗和教练这种通用情境下表现很好,这让很多人吃惊。到现在,这已经是我们使用量的一个重要部分。
另一类难决策是,如何去做一件新的事情,或决定去做一件新的事情。
OpenAI 自豪的一点是:我们尽量做「新的东西」,而不是复制竞争对手或其他研究实验室。如果你看其他研究实验室,他们大多试着做 OpenAI 在做的研究,也几乎一比一克隆我们的产品,整个行业看起来像复制粘贴。
我以前会嘲笑这种行为,觉得这是「缺乏创造力」,虽然确实也有这方面的原因。
但「做新东西」所需的决策真的很难,当你知道另一条路「管用」时,会非常非常诱人。我现在特别理解人们为什么会那样做,尽管我不认为那是推动世界前行的方式。
做什么,从假设模型能力每年提升 10 倍这个前提去想
Vinod Khosla:研究实验室之间彼此借鉴很多,建立在彼此的想法之上。创业者们也在极不确定中做决策:模型能力会怎样、该作何假设、如何在当前模型之上构建初创公司。
这可能不是决策数量的问题,而是那些关键的战略决策。对他们有什么建议?这是我被问得最多的问题之一。
AI 领域的摩尔定律,摩尔定律是说是指集成电路上可容纳的晶体管数目,每隔约两年便会增加一倍。
Sam Altman:我想,从历史上看,最有效的方法,就是假设模型在各个方面都会变得更好、更强,每个维度都更优秀、更便宜,比如更好的多模态能力、更高的智能、更强的推理能力、成本更低。
而且我没有理由相信这种趋势,会在未来几年放缓。我认为可能会有一些暂时的减速,比如人们重写基础设施。或等待新的集群上线之类的情况。
但总体来说,我觉得你最好不要试图过于聪明地预测,不要纠结,它是否会在某些小细节上变得更好,或者具体什么时候改进。
只需要问自己一个问题:如果有一个预言家告诉我,这个模型每年将在几乎所有维度上提升大约 10 倍,那么我应该什么时候开发什么产品?这将是一个非常不错的高层次指导方向。
Vinod Khosla:对那些在你们、Anthropic 或谷歌模型之上构建的人来说,最被误解的是什么?你希望他们明白什么?不是那些试图和你们竞争的人,而是构建在顶层的人。
Sam Altman:我对现在构建 AI 应用的人非常佩服。他们对模型理解很深,知道模型能做什么、不能做什么,也知道如何榨取最大性能。
我没有愿望清单。我最近在家里办了个晚宴,尽量邀请了我听说,或遇到的最令人印象深刻的新一代 AI 创业者,有 20 位。我一圈听下来,只想说,这些创始人比 5 到 10 年前的世界强太多了,我非常佩服。
Vinod Khosla:我想谈谈 AI 的全球影响。但在此之前问我最喜欢的问题,你觉得什么时候会出现「10 人公司年营收 10 亿美元」?已经开始了吗?很快会开始?不会可能?
Sam Altman:我会押注,要么这家公司已经启动,要么会在接下来几年内启动。
Vinod Khosla:完全同意。我一直在猜测,它很可能已经开始了。想想创造价值的门槛真是惊人。
跨学科的 AI 协同应用
Sam Altman:这就是我觉得 AI for Science 特别有趣的原因。你可以想象,一种药物就能创造超过 10 亿美元的营收,而它的发现和推进临床试验,可能由一个人加上 5 万张 GPU 来完成。
Vinod Khosla:是啊。我早上刚看到别人发给我的一篇文章,说只用 AI 就发现了治疗黄斑变性的方法。你的观点是对的,娱乐等其他领域也可能发生类似的事。
说说全球推广,我们如何让 AI 的好处更广泛、更公平地传播?有一种担心是富者愈富。有篇论文说,只有几百人真正理解这场变化有多大、多快。
谈谈全球影响,以及我们如何确保在国内、再到全球范围内更公平的使用和收益扩散。
Sam Altman:我不想对这个问题全盘泼冷水,我不是说你不该问,这是个重要问题。ChatGPT 现在应该是世界第五大网站了,如果它能保持当前发展,它会成为全球最大的网站。
会有数十亿人在使用「免费的 AGI」。某个时点,每个人都能获得很棒的医疗建议、很棒的教育,每个人都能请求任何软件被制作,而且是免费的,我们会直接帮你做。
技术就是这样运作的,这不意味着我们不需要在边界上做矫正。我觉得需要在一些重要问题上,用不同方式处理。
但总体上,技术让世界受益的方式,就是把工具交到人们手里,让它们免费或低价,然后人们去做惊人的事。
很多人会觉得世界还没准备好,或者他们搞不来,只有少数人能理解,就像那篇论文和其他许多看法。
我觉得人们其实知道自己需要什么,他们在学习新技术方面挺在行的。而且这不是理论,这是大规模正在发生的现实。之所以能发生,是因为现有的体系和激励,在很多方面非常出色。
当然,AI 会带来一些与以往不同的事情。你可以想象一个「算力」极度稀缺的世界,需要以某种方式决定要把巨量算力,优先投向哪些问题,这可能需要不同于以往的方法。
你也可以想象全世界的大部分资本都想要算力,算力变得巨贵、极其有限,那就糟糕了。我的答案是:让算力多得多。
我反复思考过,所以不敢百分百确定,但我认为 AI 应该会推动更多平等,而不是扩大差距。
Vinod Khosla:为了节省时间,我把三个问题摆在桌上,你可以选答一个或都答:政府的角色;AI 会在 2030 年代,带来高度通缩的经济;以及有感知的 AI 的风险。你挑想答的。
Sam Altman:那我先说通缩吧,它应该会非常通缩,我希望如此,但所有被创造出来的过剩财富,它们得有去处。
我希望像水、食物、医疗、教育、接触自然,以及与家人共度时光等等这些东西,能够成为每个人都能负担得起的东西。
然后我们都去玩那些最荒诞的地位游戏,把达·芬奇画作炒到一万亿美元,或者银河系炒到一千万亿美元之类,让那些想玩地位游戏的人,同时也愿意为他人创造价值,并想拥有炫耀资本的人,基本上必须这么做。
但这提出了一个非常有意思的设计问题,如果我们希望一切大幅变便宜、希望一切超级廉价,同时人们又极具雄心、富有创造力并且习惯努力工作,而且我们要有某种方式去记录这些,那么过剩财富会流向哪里?
Vinod Khosla:是啊,我也坚信经济会高度通缩;如果用 GDP 来衡量,GDP 的增长会爆炸式上升。所以你会同时看到这两件事。接下来,我们转向观众提问。
观众 1:嗨,Sam,我们在座大多数人一直把 AI 当作赋能我们业务的工具。我想反过来想一想,把它当成一种潜在威胁,赋能我们的竞争对手去构建竞争模型,构建一个更好的模型、更快,从而拉平,甚至倒向对我们不利。你会怎么想这个问题?
Sam Altman:我不确定我理解其中的区别。就像,我认为这会让某些人受益,而让另一些人处于劣势。我觉得你只能努力站在受益的一方。但我认为这两种情况都是真的,只是我不确定该如何以不同的方式行动。
是的,你所有的竞争对手,以及新的竞争者,都会试图用 AI 超越你,而你能做的就是把事情做得更好。
Vinod Khosla:这个问题的另一个版本应该是,在超级智能的世界里,还有可能存在竞争壁垒吗?
Sam Altman:我的答案是,当然可能。但我不知道它们会是什么样。有些看起来会差不多,比如网络效应、品牌,我能想象它们会很像。还有很多,我确定不会存在;但也会出现新的壁垒。
可这正是商业中有趣的部分,去弄清楚新的壁垒会长什么样。
观众 2:嗨,Sam。我是 Chris Li。你刚才说了一句很有意思的话,会有一个科学问题,你会扔 5 万张 GPU 上去。我想很多人对聚变感兴趣,就猜想一下,那你什么时候会按下开关,往聚变问题上扔 5 万张 GPU?
Sam Altman:大概现在吧。我觉得你需要稍微走在前面一点,因为你会开始摸到轮廓。我认为现在就是启动一些「高算力科学项目」的好时机。
观众 3:你怎么看 AI 世界里的能源基础设施?我 1 月在瑞士一个会议上听 Eric Schmidt 说,欧洲永远做不成「大 AI」,因为能源成本太高,你需要大量算力。
然后 DeepSeek 出现了,效率高很多。当你开发这些数据中心,以满足技术的能源需求时,你的假设是否有机会?
科技公司的电力销售激增,亚马逊和谷歌等大型科技公司的子公司在过去十年中在批发电力市场上的销售额已超过27亿美元。
Sam Altman:我觉得两件事都是真的。模型会变得极其高效,同时世界上的需求也会非常大。
我们将需要许多吉瓦、几十吉瓦,最终可能是上百吉瓦的电力来运行全球的 AI 需求,即便模型非常高效。
但我对新型能源上线很乐观,它会更充裕、会便宜。我认为 AI 和能源显然是高度相关的两件事。
能源还有其他重要的原因。你希望能够在世界上创造一些事情,但我预计十年后,人工智能的成本将趋于与电力成本一致。
这种情况很难说得清,其他一切都应该变得非常便宜,我们可以通过机器人化制造芯片,但仍然需要驱动电子流动。
观众 4:谢谢 Sam,谢谢 Vinod。我想回到 Vinod 的第三个问题,政府的角色是什么?
Sam Altman:在 AI 基础设施这一题上,我认为要确保我们能建设足够多的 AI,让它充裕,不会被有钱人把可用性全吸走,这似乎是政府的一项重要职责。
还需要一些护栏,公司可以提出方案、想清楚应该怎么做,但全球层面的执行只能靠政府。
观众 5:嗨 Sam,有两个问题。一个是关于接口的带宽。随着越来越多的智能体越来越强,去做不同的事,我大概会想同时和上千个智能体对话。
问题是,如果我不断在不同界面之间切换、等待他们回报,那我可能什么别的事都做不了,只是在处理智能体做这个或那个。
另一方面,我也不能完全放手让他们跑,因为他们的做法会偏离我的真实意图,这一点只有当我让他们写一个 PRD 时才会显现出来,显然并没有抓住我想要的全部,还需要很多编辑。
所以带宽看起来导致了,我可同时处理的智能体数量的扩展问题。你怎么看?下一步是什么?
Sam Altman:会有一种智能体,它的工作就是评估其他智能体的输出,并决定该把什么在什么时间呈现给你,以及什么时候它可以替你做决策或理解你会做的决策。
这会是另一类智能体的工作,我敢说它会相当有效。你大概会得到一个为你定制、实时演化的 UI,基于那些智能体的输出,它会在需要时很好地引起你的注意。
我认为今天的问题很多在明天就不是问题了,因为 AI 会越来越聪明,能在执行功能的更高层级运作。
观众 6:我是 Soma AI 的 Micha。首先祝贺你们把 Fidji Simo 请上船,她也是我们的顾问,是我认识的最出色的领导者之一。
我的问题是,当你展望,会在物理世界、在生物学等领域出现的突破时,瓶颈在哪,解锁点来自哪里?是来自通用模型,还是垂直领域模型,还是来自数据本身?
你认为生物学领域里,带来新疗法的第一次真正突破会出现在哪里?
Sam Altman:显然我并不真正知道。我认为有些科学领域,即使不增加任何数据,一个更聪明的智能体也能带来新的突破。
比如物理学,不添加任何新的数据点、不再建一台新的粒子加速器,AI 就能解出物理的全部。我不觉得这非常可能,但也许所有需要的数据都已经在那儿,只是我们没有能力去解某个足够困难的积分而已。
湿实验是需要用到更多化学试剂、小白鼠培养等;与之对应的,干实验是通过计算分析得出实验材料的物理模型或对物理模型、物理过程进行模拟。
而在生物学这样的领域,我觉得在不跑一次新的湿实验的前提下,就治愈所有癌症,可能性要小得多;不是不可能,但不太可能。
我想我们要去构建新的系统,不一定是自动化湿实验;它也可以只是给科学家发一封邮件说,「你能帮我跑一下这个实验并告诉我结果吗?」
但无论如何,需要某种主动学习系统,能不断获得新的数据点。至于哪个问题属于哪一类、真正的限制在哪里,我们会采取经验主义的方式去探索。
文章来自于微信公众号 “APPSO”,作者 “APPSO”
【开源免费】Browser-use 是一个用户AI代理直接可以控制浏览器的工具。它能够让AI 自动执行浏览器中的各种任务,如比较价格、添加购物车、回复各种社交媒体等。
项目地址:https://github.com/browser-use/browser-use
【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。
项目地址:https://github.com/Significant-Gravitas/AutoGPT
【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。
项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md
【开源免费】LangGPT 是一个通过结构化和模板化的方法,编写高质量的AI提示词的开源项目。它可以让任何非专业的用户轻松创建高水平的提示词,进而高质量的帮助用户通过AI解决问题。
项目地址:https://github.com/langgptai/LangGPT/blob/main/README_zh.md
在线使用:https://kimi.moonshot.cn/kimiplus/conpg00t7lagbbsfqkq0