图片来源:Dario Amodei
我常常思考并讨论强大AI带来的风险。我所领导的公司Anthropic也在做大量研究,旨在减少这些风险。因此,有些人觉得我是个悲观主义者,甚至是所谓的“末日论者”,认为我觉得AI主要是负面的或者危险的。但其实并不是这样。事实上,我之所以关注风险,是因为我认为它们是阻碍我们实现美好未来的唯一障碍。我觉得大多数人都低估了AI可能带来的积极影响,就像他们低估了AI的风险有多大一样。
在这篇文章中,我想尝试勾勒出这种美好前景——也就是如果一切都顺利的话,拥有强大AI的世界会是什么样子。当然,没有人能准确预测未来,特别是像AI这样的技术,它的影响可能比过去的技术变革更难以捉摸,所以这些预测不可避免地都是猜测。但我希望这些猜测至少是基于知识的、能引发思考的,即便细节上有误,它们仍然可以捕捉到事情发展的基本趋势。
不过首先,我想简要解释一下,为什么我和Anthropic没有过多谈论强大AI的好处,以及为什么我们可能仍会主要谈论风险。我做出这种选择是基于以下几个原因:
尽管有上述这些顾虑,我依然认为讨论强大AI可能带来的美好未来是非常重要的,而且我们必须尽力避开那些陷阱。事实上我认为,除了应对风险之外,我们还需要一个真正激励人心的未来愿景。强大AI确实有很多挑战和风险,但最终我们应该为某些积极的结果而奋斗,这些结果能够让每个人受益,并让人们团结起来,去应对未来的挑战。恐惧可能是一种驱动力,但并不够:我们还需要希望。
强大AI的应用潜力广泛(包括机器人、制造业、能源等许多领域),但我将重点讨论几个我认为最有可能直接改善人类生活质量的领域。我最感兴趣的五个方向是:
1.生物学与身体健康
2.神经科学与心理健康
3.经济发展与消除贫困
4.和平与治理
5.工作与人生意义
按大多数标准来看,我的预测可能显得比较激进,但是真心实意的。我所说的很可能在细节上出现偏差,但我至少尝试从半分析的角度出发,结合各领域的进展速度来预测其实际影响。我在生物学和神经科学领域有专业背景,对经济发展也有所了解,但我肯定会有很多误判。撰写这篇文章让我意识到,召集一群领域专家来撰写一份更为准确和深入的版本可能会更有价值。可以把我的努力当作这一群体讨论的起点。
为了让这篇文章更具体、更有依据,我想先明确我们所说的“强大AI(powerful AI)”的定义,也就是预计5到10年内会出现的AI,同时为思考这种AI的影响构建一个框架。
什么是“强大AI”,它何时或是否会出现,这本身就是个巨大的话题。我曾公开谈论过这个问题,未来可能还会专门写一篇文章来详细阐述这一点。显然,许多人对“强大AI”是否会很快出现持怀疑态度,甚至有些人怀疑它是否会出现。我个人认为,最早可能在2026年见到它,但也不排除会花更长时间。不过,为了本文的目的,我希望暂时搁置这些争论,假设它会在相对较短的时间内到来,并专注于它到来后5到10年内的影响。同时,我还想假设一个具体的定义,关于这种系统是什么样子,它拥有什么样的能力,以及它会如何与世界互动,尽管对此还有很多分歧。
关于“强大AI”,我所指的是一种AI模型——在形式上可能类似于现在的LLM,尽管可能基于不同的架构、涉及多个相互作用的模型,训练方式也可能有所不同。这个AI模型具备以下特征:
我们可以把这描述为一个“位于数据中心的天才国度”。
这样的存在显然能够非常快速地解决极其复杂的问题,但要准确预估其速度并不简单。有两种“极端”观点我都不认同。首先,有人可能认为,世界会在几秒或几天内被彻底改变(所谓“奇点”),因为这种超强的智能会不断自我提升,一瞬间解决所有科学、工程和操作上的难题。但问题在于,现实世界中有实际的物理和实践限制,比如硬件制造或生物实验。即便是一个新的“天才国度”,也会面临这些限制。智能可能非常强大,但它并不是魔法。
另一方面,有人会认为技术进步已经饱和,或者受到现实世界数据和社会因素的限制,因此超越人类的智能不会带来太大的改变。这种想法同样不太可信——我能想到数百个科学甚至社会问题,如果有一群真正聪明的人专注其中,进展将会大大加快,尤其是如果他们不仅限于分析,还能在现实世界中推动实际的进展(我们的“天才国度”可以做到这一点,包括指导或辅助人类团队)。
我认为事实可能会是这两种极端之间的某种混合体,根据具体任务和领域的不同,有着非常微妙的差异。我相信我们需要新的框架来以建设性的方式思考这些细节。
经济学家经常讨论“生产要素”,比如劳动力、土地和资本。“劳动力/土地/资本的边际回报”表达了这样一个概念:在某种情况下,某一生产要素可能会成为限制因素——例如,一个空军既需要飞机也需要飞行员,如果没有足够的飞机,增加飞行员的数量就没有太大帮助。我认为,在AI时代,我们应该讨论“智能的边际回报(marginal returns to intelligence)”,并试图找出与智能互补的其他因素,在智能水平非常高时会成为限制因素。我们还不习惯这种思维方式,即去问“在某个任务中,变得更聪明能带来多少帮助,所需的时间是多少?”——但这似乎是理解一个拥有强大AI的世界的正确方法。
我认为,以下这些因素会在一定程度上限制或与智能互补:
这些限制因素还可以根据时间尺度进行区分。一些在短期内看来是硬性约束的因素,随着时间推移,智能的提升可能会使它们变得更加灵活。例如,智能可以被用来开发新的实验范式,让我们能够在体外(而不是依赖活体动物实验)进行研究,或者开发采集新数据的工具(例如更大的粒子加速器),或者在伦理允许的范围内找到绕过人类限制的方法(比如改进临床试验系统、创建在临床试验方面有较少官僚约束的新司法管辖区,或者提高科学水平,从而降低人体临床试验的必要性和成本)。
因此,我们可以想象一个情境:一开始智能会被其他生产要素严重限制,但随着时间的推移,智能本身会逐渐找到绕开这些限制因素的方法,尽管它们永远不可能完全消除(例如物理定律是绝对的)。关键问题在于,这一切会以怎样的速度发生,以什么样的顺序。
带着上述的框架,我将尝试回答这个问题,聚焦于前面提到的五个领域。
生物学大概是科学进步最有潜力直接改善人类生活质量的领域之一。在上个世纪,一些人类古老的疾病终于被消灭了,但还有许多疾病依然存在,消除这些疾病将是一项巨大的成就。除了治愈疾病,生物科学还可以从根本上提高人类的健康水平,延长健康寿命,让人们对自身的生理过程有更多的控制和自由,解决一些我们目前视为人类固有的问题。
按照之前讨论的“限制因素”,将智能直接应用于生物学的主要挑战在于数据、物理世界的速度和内在复杂性(这三者实际上是相互关联的)。人类的限制也在后期阶段起到一定的作用,例如在临床试验环节。我们来逐一分析这些因素。
细胞、动物甚至化学过程的实验会受到物理世界速度的限制:许多生物学实验需要培养细菌或其他细胞,或者等待化学反应发生,而这些过程有时可能需要几天甚至几周的时间,没有明显的加速方法。动物实验可能需要几个月甚至更久,而人体实验通常需要数年,研究长期效果甚至要几十年。相关地,数据的质量也常常不足——虽然数量不少,但高质量、能明确隔离特定生物效应的数据却很缺乏。我们往往缺乏能够清晰、毫不含糊地隔离生物效应的数据,或者能在一个过程中做出因果干预的数据,或者能直接测量某种效应的数据,而非通过间接或嘈杂的方式推测其结果。即便是像质谱技术收集到的海量分子数据,也常常存在噪声问题,并且遗漏了很多信息,例如这些蛋白质是在什么细胞里?细胞的哪个部分?处于细胞周期的哪个阶段?。
这些数据问题在一定程度上是由内在复杂性导致的:如果你见过人类代谢的生化反应图,就会明白在这个复杂系统中,隔离任何一个部分的效应有多难,而想要在系统中精准或可预测地进行干预就更加困难。最后,除了人体实验本身需要花费大量时间之外,实际的临床试验还涉及大量官僚程序和监管要求,这些会增加不必要的时间延迟,从而阻碍进展。
鉴于以上这些情况,许多生物学家长期以来对AI及“大数据”在生物学中的价值持怀疑态度。历史上,数学家、计算机科学家和物理学家在过去30年里将他们的技能应用于生物学领域,虽然取得了一些成功,但没有达到最初设想的那种颠覆性影响。近年来,像AlphaFold这样的重大突破减少了一些怀疑,但仍然有人认为,AI只能在有限的特定情况下发挥作用。常见的一种说法是:“AI可以更好地分析你的数据,但它无法产生更多数据或提高数据质量。Garbage in, garbage out.”
但我认为这种悲观的观点其实是对AI的误解。如果我们关于AI进展的核心假设是正确的,那么应该把AI视为一个虚拟的生物学家,它不仅仅是分析数据的工具,还能执行生物学家们所做的所有工作,包括在现实世界中设计和执行实验(通过控制实验室机器人,或像研究负责人指导研究生那样告诉人类要进行哪些实验),发明新的生物学方法或测量技术,等等。AI真正能够加速生物学发展的方式是通过加快整个研究过程。我想强调这一点,因为这是我在谈到AI如何改变生物学时最常见的误解:我没有把AI只作为分析数据的工具来讨论。而是像开篇对强大AI的定义一样,AI能够执行、指导并改进生物学家几乎所有的工作。
具体来说,我认为生物学进展的加速可能来自于一个令人惊讶的大方向——大量进步其实都源于非常少量的发现,往往与广泛使用的测量工具或技术有关,它们可以实现对生物系统精确但灵活的干预。每年大约有1个这样的重大发现,推动了生物学50%以上的进步。这些发现之所以如此重要,正是因为它们突破了内在的复杂性和数据限制,直接提升了我们对生物过程的理解和控制。几次重要的发现就奠定了我们对生物科学的基本理解,并推动了许多最强有力的医学疗法。举几个例子:
列出这些技术是为了提出一个关键观点:如果有更多富有才华和创造力的研究者,我认为这些技术的发现速度可以增加10倍以上。换句话说,这类发现的“智能回报”非常高,生物学和医学的其他一切进展基本都依赖于这些突破。
为什么我会这么认为?是因为当我们在评估“智能的回报”时,需要习惯性地去思考几个问题。首先,这些重大突破通常且往往是由少数几个研究人员完成的,这说明这更多是一种能力的体现,而不是随机探索的结果。其次,很多发现其实“本可以”更早出现。以CRISPR为例,它作为细菌免疫系统中的一种天然成分早在80年代就被发现了,但直到25年后,人们才意识到可以把它用于基因编辑。再者,许多有前景的研究方向,常常因为科学界缺乏足够的支持而被拖延了好几年(就像mRNA疫苗的发明经历中也有类似情况,类似的故事数不胜数)。第三,很多成功的项目,一开始其实只是人们并不太看好的边缘探索,而不是那些起初就得到大量支持的大规模计划。这也意味着,即使那些潜力巨大的发现,识别和推动它们成功依然是个不小的挑战。
最后,虽然有些发现存在“连续依赖性”(需要先完成发现A,才能获得实现发现B的工具或知识),这确实可能会导致实验延迟,但很多乃至大多数发现都是相互独立的,这意味着可以同时进行多项研究。这两点,再加上我作为生物学家的经验,让我坚信,如果科学家们能更聪明、更善于把人类积累的大量生物学知识联系起来,就有数百个类似的发现等着我们去实现。AlphaFold和AlphaProteo在解决许多重要问题时比人类更高效,这让我们看到尽管几十年来物理建模的设计非常精密,它们的成功可以为我们指明前进的方向。
因此,我猜测强大的AI至少可以将这些发现的速度提升10倍,让我们在5到10年内获得未来50到100年的生物学进展。为什么不是100倍呢?或许是有可能的,但在这里,“连续依赖性”和实验时间就变得很重要:要在一年内实现100年的进步,需要一切都能在第一次就顺利进行,包括动物实验以及设计显微镜或昂贵的实验室设施。我实际上对这样的想法持开放态度,即在5到10年内实现1000年的进展,但我对在一年内实现100年的进展则持怀疑态度。换句话说,我认为存在一个不可避免的常数延迟:实验和硬件设计有一定的“延迟”,需要在一定的“不可减少”的次数上进行迭代,才能学习那些不能通过逻辑推导得出的知识。不过在此基础上,进行大规模并行处理是有可能的。
那临床试验呢?尽管与之相关有很多官僚主义和拖延现象,但事实上它们的许多(虽然并非全部)延迟最终源于对药物进行严格评估的需要,特别是那些疗效微弱或效果不明确的药物。可悲的是,在今天的大多数疗法中都是如此:平均而言,癌症药物仅能将生存时间延长几个月,同时伴随显著的副作用,这些副作用需要被仔细测量(针对阿尔茨海默症药物也有类似的情况)。这导致了庞大的研究规模和难以权衡的取舍,而监管机构通常在这方面并不是特别擅长,这同样是由于官僚主义和复杂的利益冲突所致。
当事情运行得非常顺利时,进展会更快:在效果明显时,审批会更快更容易。以COVID的mRNA疫苗为例,它们在9个月内获批——这远快于通常的审批速度。尽管如此,即便在这种情况下,临床试验的速度依然太慢——mRNA疫苗实际上应该在大约2个月内获批。然而,这种延迟(对药物全程来说大约有1年)再加上大规模并行处理,以及对一定程度但不过度迭代的需求(“尝试几次”),非常适合在未来5到10年内实现彻底的变革。更加乐观地说,借助AI,生物科学可能会通过开发更好的动物和细胞实验模型(甚至是模拟)来减少临床试验中的迭代需求,从而更准确地预测人体反应。这在开发抗衰老药物方面尤为重要,因为衰老过程的变化持续几十年,而我们需要更快的迭代循环。
最后,关于临床试验和社会上的障碍,值得特别指出的是,某种程度上生物医学创新在成功应用方面的记录异常出色,这与某些其他技术形成了鲜明对比。如前言所提,许多技术尽管在技术上运行良好,却受到社会因素的制约。这可能会让人对AI能达到的成就产生悲观的看法。然而,生物医学独特之处在于,尽管药物开发过程过于繁琐,但一旦药物开发成功,它们通常会被有效部署和使用。
总而言之,我的基本预测是,借助AI的生物学和医学将使我们能够将人类生物学家在接下来50-100年内可能取得的进展压缩在5-10年内。我将这一现象称为“压缩的21世纪(compressed 21st century)”:在强大AI的开发后,我们将在短短几年内取得本该需要整个21世纪的生物学和医学进展。
尽管对强大AI在未来几年能做些什么的预测本质上仍然困难且不确定,但问“人类在未来100年内能独立完成什么?”这个问题还是有一定实质性的。简单回顾一下我们在20世纪取得的成就,或从21世纪的前20年进行推测,或者想象一下“10个CRISPR和50个CAR-T”能带来什么,都提供了实用且切实可行的方式来估算我们可能从强大AI中期待的整体进展水平。
我尝试在下面列出我们可能期待的结果。这不是基于任何严谨的方法论,细节上几乎肯定会出错,但它旨在传达我们应该期待的进展的整体激进程度:
值得关注的是,如果在7到12年内实现这份清单上的所有目标(这与激进的AI时间表相符),世界将会有多么不同。毫无疑问,这将是人类历史上难以想象的胜利,几千年来困扰人类的大多数灾难将同时消失。我的许多朋友和同事都在养育孩子,我希望当他们的孩子长大后,对他们来说提到任何疾病听起来就像今天我们谈论坏血病、天花或鼠疫一样陌生。那一代人将受益于更大的生物自由和自我表达,运气好的话,他们也将能够按自己的意愿活得更久。
对于除了少数几位预见到强大AI可能性的人以外,其他所有人来说,这些变化的冲击力很难被高估。例如,目前美国有成千上万的经济学家和政策专家正在讨论如何保持社会保障和医疗保险的可持续性,以及如何更广泛地降低医疗成本(这些成本主要由70岁以上的人群,尤其是癌症等绝症患者消耗)。如果上述目标能够实现,这些项目的状况很可能会得到根本改善,因为工作年龄人口与退休人口的比例将发生巨大的变化。毫无疑问,这些挑战将被其他问题取而代之,例如如何确保广泛获得新技术,但值得反思的是,即使只有生物学这一领域因AI而获得成功加速,世界也将会发生多大的变化。
在上一部分中,我专注于身体疾病和生物学的总体,而没有涉及神经科学或心理健康。但神经科学是生物学的一个子学科,心理健康与身体健康同样重要。事实上,心理健康在某种程度上对人类福祉的影响甚至比身体健康更为直接。数亿人因成瘾、抑郁、精神分裂症、低功能自闭症、创伤后应激障碍、反社会人格或智力障碍等问题,生活质量极低。还有数十亿人则面临日常问题,这些问题往往可以被视为这些严重临床疾病的较轻版本。与一般生物学一样,除了应对问题之外,还可能超越这一点,改善人类体验的基础质量。
我为生物学设定的基本框架同样适用于神经科学。这个领域的发展依赖于少数几项发现,这些发现通常与测量或精确干预的工具有关——在上述列表中,光遗传学就是一个神经科学的发现,最近的CLARITY和扩展显微术也是类似的进展,此外,许多直接应用于生物学的方法也适用于神经科学。我认为这些进展的速度同样会被AI加速,因此“在5到10年内实现100年的进展”的框架也适用于神经科学,原因与生物学相同。在20世纪,神经科学的进展也是巨大的——例如,直到1950年代我们才理解神经元是如何发射信号的。因此,期待AI加速的神经科学在短短几年内产生迅速进展似乎是合理的。
在这个基本框架上,我们还应该补充一点:在过去几年中,我们对AI本身的某些认识或正在学习的内容很可能会推动神经科学的发展,即使这些工作仍然仅由人类进行。可解释性就是一个显而易见的例子:尽管生物神经元的运作表面上与人工神经元截然不同(它们通过脉冲进行通信,并且通常通过脉冲频率传递信息,因此存在时间因素,而人工神经元则没有,细胞生理学和神经递质相关的许多细节显著改变了它们的运作),但“由分布式、训练过的简单单元组成的网络如何协同工作,进行重要计算”这个基本问题是相同的。我强烈怀疑,个别神经元之间的通信细节将在关于计算和电路的大多数有趣问题中被抽象化。举一个例子,最近在AI系统中由可解释性研究者发现的计算机制,在小鼠大脑中也被重新发现。在人工神经网络上进行实验要比在真实神经网络上容易得多(后者通常需要对动物大脑进行切割),因此可解释性可能会成为提升我们对神经科学理解的工具。此外,强大的AI可能会比人类更好地开发和应用这一工具。
然而,超越可解释性,我们从AI中学到的关于智能系统如何被训练的知识应该(虽然我不确定现在是否已经做到)在神经科学领域引发一场革命。当我从事神经科学研究时,许多人专注于我现在认为是错误的学习问题,因为“缩放假设”和“苦涩教训”的概念尚未存在。简单的目标函数加上大量数据能够驱动极其复杂的行为,这一思想使得理解目标函数和架构偏见变得更有趣,而理解新兴计算的细节则显得不那么重要。近年来我没有密切关注这一领域,但我隐约感到计算神经科学家们仍未完全吸收这个教训。我对缩放假设的态度一直是“啊哈——这在高层次上解释了智能如何运作以及它是如何如此轻易进化的”,但我不认为这是大多数神经科学家的看法,部分原因是“缩放假设”作为“智能的秘密”在AI界内部也没有被完全接受。
我认为神经科学家应该试图将这一基本见解与人脑的特殊性(生物物理限制、进化历史、拓扑结构、运动和感觉输入/输出的细节)结合起来,努力破解神经科学中的一些关键难题。有些人可能在这样做,但我怀疑这还不够,而AI神经科学家将能够更有效地利用这一角度来加速进展。
我期待AI通过四条不同的途径加速神经科学的进展,所有这些途径希望能够协同作用,以治愈心理疾病并改善功能:
我猜测,这四条进展路径的协同作用将使我们有望在接下来的100年内治愈或预防大多数心理疾病,即使没有AI的参与——因此在AI加速的情况下,这一过程可能在5到10年内完成。具体来说,我猜测可能会发生以下情况:
一个在科幻作品中经常出现但我故意没有在这里讨论的话题是“心智上传(mind uploading)”,即捕捉人脑的模式和动态并在软件中实现这一想法。这个话题本身就可以成为一篇文章的主题,但可以简单说一下:尽管我认为从原则上讲,上传几乎肯定是可行的,但在实践中,它面临着显著的技术和社会挑战,即使在强大AI的帮助下,这可能使其超出我们讨论的5到10年的时间范围。
总而言之,AI加速的神经科学可能会极大改善大多数心理疾病的治疗,甚至治愈它们,同时大幅扩展“认知与心理自由”以及人类的认知和情感能力。这一进展将与前一部分中描述的身体健康的改善一样激进。或许外部世界不会明显不同,但人类所经历的世界将变得更加美好和人道,同时提供更多的自我实现机会。我还怀疑,心理健康的改善将缓解许多其他社会问题,包括那些看似政治或经济的问题。
前两部分讨论了发展新技术以治愈疾病和改善人类生活质量。然而,从人道主义的角度来看有一个显而易见的问题:“每个人都能获得这些技术吗?”
开发一种治愈疾病的方法是一回事,而在全球范围内根除该疾病又是另一回事。更广泛地说,许多现有的健康干预措施尚未在全球范围内得到应用,而对于一般的(非医疗)技术改进也是如此。换句话说,世界上许多地区的生活水平仍然非常贫困:撒哈拉以南非洲的人均GDP约为2,000美元,而美国则约为75,000美元。如果AI进一步提高发达国家的经济增长和生活质量,而对发展中国家的帮助微乎其微,我们应该视之为一种可怕的道德失误,这也是对前两部分所取得的人道主义胜利的污点。理想情况下,强大的AI应该帮助发展中国家赶上发达国家,同时彻底改变后者。
我对AI能否解决不平等和经济增长的问题的信心,远不如我对其能够发明基础技术的信心,因为技术显然有很高的智力回报(包括绕过复杂性和应对数据缺乏的能力),而经济则涉及人类的许多约束,以及大量内在复杂性。我对AI能否解决著名的“社会主义计算问题”持怀疑态度,我也认为政府不会(也不应该)将其经济政策交给这样的实体,即使它能够做到。此外还有一些问题,例如如何说服人们接受有效但可能让他们感到怀疑的治疗。
发展中国家面临的挑战因私人和公共部门普遍存在的腐败而变得更加复杂。腐败形成了恶性循环:它加剧了贫困,而贫困又滋生了更多的腐败。基于AI的经济发展计划需要考虑腐败、薄弱的机构以及其他非常人性化的挑战。
尽管如此,我依然感到相当的理由保持乐观。许多疾病已经被根除,许多国家从贫穷变得富裕,而显然,这些任务所涉及的决策体现了高智力回报(尽管面临人类的约束和复杂性)。因此,AI可能能够比目前的方式做得更好。可能还会有一些针对性的干预措施能够绕过人类的约束,而AI可以集中精力进行这些干预。然而,更重要的是,我们必须努力去尝试。AI公司和发达国家的政策制定者都需要尽自己的一份力,确保发展中国家不被遗忘;这个道德责任太重大了。因此,在本部分中,我将继续进行乐观的论述,但请时刻记住成功并无保证,这依赖于我们的共同努力。
接下来,我将对在强大AI开发后的5-10年内,发展中国家可能出现的情况进行一些猜测:
总体而言,我对快速将AI的生物技术进展带给发展中国家的人们持乐观态度。尽管我对AI是否能实现前所未有的经济增长率并让发展中国家的水平至少超过当前发达国家的状况没有信心,但我仍然抱有希望。我对发达和发展中国家都存在的“选择退出”问题感到担忧,但我怀疑这种情况会随着时间推移而减弱,并且AI可以帮助加速这一过程。这个世界不会是完美的,那些落后的地区在最初几年内也不会完全赶上来。但只要我们付出努力,就有可能让事情朝着正确的方向迅速发展。如果我们做到这一点,就能够为每个地球上的人所应享有的尊严和平等的承诺奠定基础。
假设前三个部分的情况都进展顺利:疾病、贫困和不平等显著减少,人类体验的基础水平大幅提升。但这并不意味着人类所有主要的苦难之·原因都已解决。人类仍然对彼此构成威胁。尽管有科技进步和经济发展带来民主与和平的趋势,但这一趋势非常松散,并且经常出现倒退。在20世纪初,人们认为他们已经将战争抛在身后;但随之而来的却是两次世界大战。三十年前,弗朗西斯·福山写道“历史的终结”,以及自由民主的最终胜利;但这一切尚未实现。二十年前,美国政策制定者相信与中国的自由贸易会导致其在富裕后实现民主化;结果并非如此,现在我们似乎正走向第二次冷战,面对复苏的专制集团。有合理的理论表明,互联网技术实际上可能更有利于专制,而非最初认为的民主。因此,理解强大AI如何与和平、民主和自由的问题交叉,似乎显得尤为重要。
不幸的是,我没有看到强有力的理由相信,AI会以优先或结构性方式促进民主与和平,正如我认为它会结构性地推动人类健康和减轻贫困一样。人类冲突是对抗性的,原则上,AI可以帮助“好人”和“坏人”。如果说有什么值得担忧的结构性因素,那就是AI似乎很可能会使宣传和监控的能力大幅提升,这都是独裁者工具箱中的重要工具。因此,我们作为个体行动者,需要努力朝正确的方向倾斜:如果我们希望AI支持民主和个人权利,我们就必须为这个结果而奋斗。我对此的感受甚至比国际不平等的问题更为强烈:自由民主的胜利和政治稳定并不能保证,甚至不太可能,它需要我们所有人付出巨大的牺牲和承诺,正如过去常常发生的那样。
我认为这个问题可以分为两个部分:国际冲突和国家的内部结构。在国际层面,当强大AI被创造出来时,民主国家在世界舞台上占据上风似乎非常重要。依靠AI的专制主义太可怕了,因此民主国家需要能够设定强大AI进入世界的条款,以避免被专制者压倒,并防范专制国家内部的人权侵犯。
我目前认为最佳解决方案是通过“协约战略”,即一个民主国家的联盟试图通过确保强大AI的供应链、快速扩展,并阻止或延迟对手获取关键资源(如芯片和半导体设备),来获得明确的优势(即便只是暂时的)。该联盟一方面将利用AI实现强大的军事优势(作为威慑),同时向越来越多的国家分发强大AI的好处(作为奖励),以换取这些国家支持该联盟推动民主的战略(这有点类似于“和平利用原子能”)。联盟的目标是争取世界上越来越多的支持,孤立我们最糟糕的对手,最终让他们发现接受与世界其他国家相同的协议会更好:放弃与民主国家的竞争,以获得所有的好处,不与更强的对手作斗争。
如果我们能够做到这一切,我们将拥有一个在世界舞台上领先的民主国家,并拥有足够的经济和军事力量,避免被专制国家破坏、征服或破坏,并且能够将其AI优势转化为持久的优势。这乐观地可能导致“永恒的1991”——一个民主国家占据上风、福山的梦想得以实现的世界。同样,这将非常难以实现,特别需要私营AI公司与民主政府之间的紧密合作,以及在奖惩之间取得极其明智的平衡。
即使所有这一切都顺利进行,仍然会面临各国内部民主与专制之间斗争的问题。在这一点上,显然很难预测将会发生什么,但我确实乐观地认为,如果在全球环境中民主国家掌控着最强大的AI,那么AI实际上可能在各地结构性地支持民主。特别是在这种环境下,民主政府可以利用其更强大的AI赢得信息战争:它们可以反制专制国家的影响力和宣传活动,甚至可能通过提供信息和AI服务的渠道,创造一个全球自由的信息环境,而专制国家缺乏阻止或监控这些信息的技术能力。或许不需要传播宣传,只需反制恶意攻击并打通信息的自由流通。尽管这并非立竿见影,但像这样的公平竞争环境有很大机会逐渐将全球治理倾向于民主,这有几个原因。
首先,第一到第三部分的生活质量提升应该会在一定程度上促进民主。这在历史上已经得到了验证。特别是,我预计心理健康、幸福感和教育水平的提高将有助于增加民主,因为这三者与支持专制领导者呈负相关。一般而言,当人们的基本需求得到满足时,他们会渴望更多的自我表达,而民主正是一种自我表达的形式。相反,专制主义往往依靠恐惧和怨恨。
其次,自由的信息有很大机会确实可以削弱专制政权,只要专制者无法进行审查。未受审查的AI也能够为个人提供强大的工具,以削弱压制性政府。压制性政府通过剥夺人们某种共同的知识来生存,防止他们意识到“皇帝没有穿衣服”。例如,斯尔贾·波波维奇帮助推翻了塞尔维亚的米洛舍维奇政府,他广泛撰写了许多心理学技巧,旨在剥夺专制者的权力,打破魔咒并动员对独裁者的支持。如果每个人的口袋里都有一个超人般有效的AI波波维奇(他的技能似乎具有高智力回报),而独裁者又无力阻止或审查,那么这可能会为全球的异议人士和改革者提供支持。重申一下,这将是一场漫长而艰苦的斗争,胜利并非必然,但如果我们以正确的方式设计和构建AI,至少可以让自由倡导者在各地拥有优势。
与神经科学和生物学一样,我们也可以思考如何让事情“变得更好”——不仅是如何避免专制,还要如何使民主制度比现在更出色。即使在民主国家,社会不公现象依然时有发生。法治社会向公民承诺,人人在法律面前平等,人人都有基本人权,但显然并非所有人都能在实践中享受到这些权利。即便这一承诺部分得以兑现,依然值得骄傲,但AI能否帮助我们做得更好?
例如,AI能否通过让决策和流程更公正来改善我们的法律和司法系统?目前,人们普遍担心AI系统可能会引发歧视,这种担忧是重要的,必须加以防范。同时,民主的活力在于利用新技术改善民主制度,而不仅仅是应对风险。真正成熟和成功的AI实施有潜力减少偏见,为每个人提供更公平的待遇。
几个世纪以来,法律系统面临着这样一个困境:法律旨在公正,但本质上是主观的,因此必须由有偏见的人类来解释。试图使法律完全机械化并没有成功,因为现实世界复杂多变,无法总是用数学公式来描述。法律系统往往依赖于像“残忍和不寻常的惩罚”或“完全没有可赎回的社会重要性”这样的不精确标准,由人类来解释这些标准——而且常常表现出偏见、偏袒或任意性。尽管“智能合约”在加密货币中并没有彻底改变法律,因为普通代码的智能水平不足以裁决很多有意义的事项,但AI可能会在这方面有所作为:它是首个能够以可重复和机械方式进行广泛模糊判断的技术。
我并不是说要完全用AI系统替代法官,但公正性与理解和处理复杂现实情况的能力结合在一起,似乎在法律和正义领域会产生重要的积极应用。至少,这样的系统可以作为决策的辅助工具与人类合作。在这样的系统中,透明性将十分重要,而成熟的AI科学有可能提供这种透明性:这些系统的训练过程可以进行深入研究,利用先进的可解释性技术查看最终模型的内部,评估潜在的隐藏偏见,这一点是人类无法做到的。这些AI工具还可以用于监测司法或警务背景下的基本权利侵犯,使宪法的自我执行能力更强。
此外,AI还可以用来汇总民意并推动公民之间的共识,解决冲突,寻找共同点并寻求妥协。在这方面,一些早期的想法已在计算民主项目中付诸实践,包括与Anthropic的合作。更有信息意识和思考能力的公民群体显然会增强民主制度的力量。
同时,AI也有明确的机会帮助提供政府服务——例如健康福利或社会服务——这些服务在原则上应向所有人开放,但在实践中往往严重不足,在某些地方更为明显。这些服务包括健康服务、车辆管理局、税务、社会保障、建筑法规执行等。拥有一个非常周到且信息丰富的AI,其职责是以易于理解的方式向你提供所有法律上应得的政府福利,同时帮助你遵守常常令人困惑的政府规定,将会是一个重大进展。增强国家的能力不仅有助于兑现法律面前人人平等的承诺,还加强了对民主治理的尊重。服务实施不力目前是对政府产生愤世嫉俗的主要驱动因素。
所有这些想法都还有些模糊,正如我在本节开头所提到的,我对这些想法的可行性并没有生物学、神经科学和减贫方面的进展那么有信心。这些想法可能显得过于理想化。但重要的是要有一个雄心勃勃的愿景,愿意追求远大的目标并尝试各种方案。将AI视为自由、个人权利和法律平等的保障是一个太有力的愿景,值得为之而战。一个21世纪的、以AI为动力的政治体,既可以成为个人自由的更强保护者,也可以成为希望的灯塔,帮助将自由民主作为全球普遍接受的治理形式。
即使前四部分的一切都进展顺利——不仅缓解了疾病、贫困和不平等,自由民主也成为了主要的政府形式,现有的自由民主国家变得更完善——至少还有一个重要问题需要解决。有人可能会提出反对意见:“我们生活在一个如此技术先进、同时又公平和体面的世界里,这当然很好,但如果AI包揽了一切,人类如何找到意义?他们将如何在经济上生存?”
我认为这个问题比其他问题更难。我并不是说我对这个问题比对其他问题更悲观,而是因为这个问题更加模糊,很难提前预测,因为它涉及到社会如何组织的宏观问题,而这些问题通常只能随着时间的推移以去中心化的方式得到解决。例如,历史上的狩猎采集社会可能会认为没有狩猎和各种与狩猎相关的宗教仪式,生活就毫无意义,他们会觉得我们现在这个吃得饱、技术先进的社会毫无目的。他们可能也无法理解我们的经济如何能养活所有人,或者在机械化社会中,人们能扮演什么有用的角色。
尽管如此,还是值得谈几句,同时要记住,这一部分的简短绝不意味着我不重视这些问题——恰恰相反,这反映着缺乏明确的答案。
关于意义的问题,我认为仅仅因为AI能比你做得更好,就认为你做的事情毫无意义,这是一个很大的误区。大多数人并非世界上任何领域的佼佼者,但这似乎并不会让他们特别困扰。当然,现在人们可以通过比较优势来贡献力量,并从他们创造的经济价值中找到意义,但人们也非常享受那些不创造经济价值的活动。我花了不少时间玩电子游戏、游泳、散步和与朋友聊天,这些都没有产生经济价值。我可能会花一天时间试着提高电子游戏水平,或者更快地骑车爬上山顶,但对我来说,有人在这些事情上比我做得更好并不重要。总的来说,我认为意义主要来自于人际关系和情感联系,而非经济劳动。人们确实希望获得成就感,甚至是竞争感,在一个后AI的世界中,完全可以花费数年时间尝试某个非常困难且策略复杂的任务,就像今天有人从事研究项目,试图成为好莱坞演员,或者创办公司一样。我觉得,(a)某个AI可能原则上能把这件事做得更好,(b)这项任务不再是全球经济中受到经济回报的元素,这两点并不太重要。
在我看来,经济问题实际上比意义问题更难。在本部分中,“经济”指的是大多数或所有人可能无法在一个足够先进的AI驱动经济中作出有意义贡献的潜在问题。这是一个比不平等问题更宏观的问题,尤其是不平等的技术获得问题,我在第三部分中已经讨论过。
首先,在短期内,我同意比较优势将继续使人类保持相关性,甚至提高他们的生产力,在某些方面还可能拉平人与人之间的竞争。当AI在某个工作中只比人类好90%时,那剩下的10%会让人类获得高度杠杆化的优势,增加报酬,并且创造一大批新的人类工作,用来补充和放大AI擅长的领域,从而使“10%”的作用扩大,继续雇佣几乎所有人。事实上,即便AI在所有事情上都比人类做得好,但如果在某些任务上效率低下或者成本昂贵,或者人类和AI在资源输入上有显著差异,那么比较优势的逻辑仍然适用。在物理世界中,人类可能在很长一段时间内保持相对甚至绝对的优势。因此,我认为即使在我们到达“数据中心的天才国度”的那一刻,整个经济体系仍然会有一定的合理性。
然而,我确实认为,从长远来看,AI将变得如此广泛且高效、成本低廉,以至于上述情况将不再适用。届时,我们当前的经济体系将失去意义,社会需要进行更广泛的讨论,以重新审视经济的组织方式。
虽然这听起来可能有些疯狂,但事实上人类文明过去成功应对了几次重大的经济转变:从狩猎采集到农业,从农业到封建制度,再从封建制度到工业化。我怀疑未来我们可能需要一些更新奇的解决方案,而今天还没有人能很好地构想出这样的方案。也许它会像一种人人享有的大额基本收入那么简单,尽管我怀疑这只是解决方案的一小部分。也许会是一种AI系统主导的资本主义经济,而这些AI系统会基于某种次级经济体系(由AI基于人类价值的判断推导而来)向人类分配资源(由于经济总量巨大,因此会分配大量资源)。或许未来经济会运行在“信任积分(Whuffie points)”上。或者,人类依然在经济中具备价值,只是以一种目前的经济模型未能预料的方式。所有这些解决方案都有可能面临大量问题,在没有经过大量试验和迭代之前,无法判断它们是否合理。和其他一些挑战一样,我们可能需要为一个良好的结果而奋斗:剥削性或反乌托邦式的发展方向显然存在,我们必须防止这些发生。关于这些问题还可以写很多,我希望在将来能够更深入地探讨。
在上述各个话题中,我尝试描绘了一个合理的未来愿景——一个在AI发展顺利的情况下可能实现的世界,一个比今天更美好的世界。我不确定这个世界是否现实,即使它是现实的,也需要很多勇敢而专注的人的巨大努力与奋斗才能实现。每个人(包括AI公司)都需要尽其所能,既要防范风险,也要充分实现其带来的好处。
但这是一个值得为之奋斗的世界。如果这一切真的在未来5到10年间发生——大多数疾病被击败,生物和认知自由得到增长,数十亿人脱离贫困并享受到新技术,自由民主和人权复兴——我猜人们看到这一切时会被深深触动。我指的不是从中获得个人利益的感受,尽管那本身也会很惊人。我指的是看到一系列长期信奉的理想在我们面前一一实现的体验。我相信许多人会因此感动落泪。
在撰写这篇文章的过程中,我注意到一种有趣的矛盾。在某种意义上,这里描绘的愿景非常激进:几乎没有人会期望它在未来十年内实现,甚至会认为这是荒谬的幻想。有些人甚至可能不认为这是值得追求的;它体现了一些价值观和政治选择,并非人人都赞同。但与此同时,这个愿景又显得如此显而易见,仿佛无论如何尝试去设想一个美好的世界,最终都会大致走向这里。
在伊恩·M·班克斯的《游戏玩家》中,主角属于一个名为“文化”的社会,这个社会的原则与我在此阐述的相似。他前往一个压制性的军事帝国,在那里,领导者是通过一场复杂的博弈游戏竞争而选出的。然而,这个游戏足够复杂,以至于玩家在其中的策略往往反映出他们自己的政治和哲学观。主角在游戏中击败了皇帝,表明他的价值观(即“文化”的价值观)甚至在一个建立在无情竞争和优胜劣汰的社会设计的游戏中,也代表着一种获胜策略。Scott Alexander的一篇著名博文也有类似的论点——竞争本身是自我毁灭的,最终会导致一个以同情与合作为基础的社会。“道德宇宙的弧线”也是类似的概念。
我认为“文化”的价值观是一种获胜的策略,因为它是无数小决策的总和,这些决策具有明显的道德力量,往往将大家凝聚在一起。公平、合作、好奇心和自主性等基本人类直觉难以反驳,而且它们以一种我们的破坏性冲动所不具备的方式累积。很容易说服人们,如果能预防,就不应该让孩子死于疾病,而从这里出发,很容易进一步主张所有人的孩子都应享有同样的权利。从这里再进一步,很容易主张我们应该共同努力,运用智慧实现这一目标。几乎没有人反对应当惩罚无故攻击或伤害他人的行为,由此再稍进一步就能推导出惩罚应当在所有人之间一致且系统化的观念。同样地,人们应该拥有对自己生活和选择的自主权与责任,这也是合乎直觉的。如果将这些推到逻辑的极致,最终会走向法治、民主和启蒙价值观。即使这一切不是必然的,但至少从统计趋势来看,人类的方向确实在朝着这里前进。AI只是为我们提供了一个加速实现这一切的机会——让逻辑更清晰,目标更明确。
尽管如此,这依然是一种超越凡尘的美好事物。我们有机会在实现它的过程中,扮演一小部分角色。
文章来自于“Z Potentials”,作者“Grace Bo”。
【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。
项目地址:https://github.com/Significant-Gravitas/AutoGPT
【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。
项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md