ChatGPT 人工智能 GPT4 伦理 生成式 医疗 监管 安全 机器学习 深度学习 神经网络 计算机视觉 强化学习 模型 算法 应用 开发 研究 工具 平台 框架 数据集 训练 部署 安全 合规 培训 投资 LLM,llm AI,ai,Ai 大模型 大语言模型 制图 生图 绘图 文生图 文生视频 生成式AI AGI 世界模型 sora chatGPT,chatgpt,ChatGpt claude openai Llama deepseek midjourney 红熊猫模型 Red panda,panda Stable Diffusion,StableDiffusion,stable DALL- E 3 DALL E DALL Flux,flux 扩散模型 混元大模型 文心一言 通义千问 可灵 Pika PixelDance 豆包 月之暗面 零一万物 阶跃星辰 搜索增强 MiniMax Talkie Agent prompt fastai LangChain TTS 微调 提示词 知识库 智能体
# 热门搜索 #
搜索
深度|Anthropic CEO:强大的AI将在21世纪为我们带来什么?
6648点击    2024-10-29 12:53

图片来源:Dario Amodei


Z Highlights


  • Anthropic CEO Dario Amodei 预测,凭借强大的AI的力量,生物学和医学将加速进步,在未来5-10年内实现原本需要50-100年的成果。他称这一现象为“压缩的21世纪”,即AI能够让人类在几年内取得整整一个世纪的生物医学成就。


  • Amodei 还认为,若AI的逻辑被推向极致,最终将引导人类走向法治、民主和启蒙价值观。虽然这一进程并非必然,但从统计趋势来看,AI将加速人类正向这些目标前进的步伐,让方向更加清晰,目标更加明确。


  • 相较于在真实神经网络上的实验,人工神经网络的实验要容易得多,因为前者通常需要对动物大脑进行解剖。因此,可解释性可能会成为深入理解神经科学的有力工具。同时,AI在智能系统训练方面的知识应该能够推动神经科学领域的变革,尽管目前尚不确定这一变革是否已经发生。


我常常思考并讨论强大AI带来的风险。我所领导的公司Anthropic也在做大量研究,旨在减少这些风险。因此,有些人觉得我是个悲观主义者,甚至是所谓的“末日论者”,认为我觉得AI主要是负面的或者危险的。但其实并不是这样。事实上,我之所以关注风险,是因为我认为它们是阻碍我们实现美好未来的唯一障碍。我觉得大多数人都低估了AI可能带来的积极影响,就像他们低估了AI的风险有多大一样。


在这篇文章中,我想尝试勾勒出这种美好前景——也就是如果一切都顺利的话,拥有强大AI的世界会是什么样子。当然,没有人能准确预测未来,特别是像AI这样的技术,它的影响可能比过去的技术变革更难以捉摸,所以这些预测不可避免地都是猜测。但我希望这些猜测至少是基于知识的、能引发思考的,即便细节上有误,它们仍然可以捕捉到事情发展的基本趋势。


不过首先,我想简要解释一下,为什么我和Anthropic没有过多谈论强大AI的好处,以及为什么我们可能仍会主要谈论风险。我做出这种选择是基于以下几个原因:


  • 最大化杠杆。AI技术的基本发展及其许多好处似乎是不可避免的(除非风险阻止了一切),这一切都是由强大的市场力量推动的。另一方面,风险并非既定的,我们的行动可以极大地改变风险发生的概率。


  • 避免被认为自我宣传。当AI公司谈论AI带来的所有好处时,往往会让人觉得它们像是在搞宣传,或者试图转移人们对潜在负面影响的注意力。而且我认为,从原则上讲,花太多时间去“宣传自己”对自己的精神是有害的。


  • 避免自大。很多关于AI风险的公众人物(更别提那些AI公司的领导者)在谈论后AGI世界时,总是把它当作他们的使命,仿佛他们是先知般引领着人类走向救赎。我认为,把企业看作是单方面塑造世界的力量是很危险的,把技术目标视作某种宗教任务也是同样。


  • 避免“科幻”的包袱。尽管我觉得大多数人低估了强大AI的好处,但那些讨论AI未来的人往往用一种过于“科幻”的语气来讨论这个话题(比如上传大脑、太空探索或赛博朋克的氛围)。我认为这种风格让人们难以严肃看待这些讨论,并且会让这些未来愿景看起来不太现实。问题并不在于这些技术是否有可能实现,而是这种氛围往往夹带了许多文化负担和未明确表达的假设,关于什么样的未来是理想的,以及社会问题会如何演变等。结果常常让这些讨论看起来像是某个狭小文化圈的幻想,而让大多数人觉得不太靠谱。


尽管有上述这些顾虑,我依然认为讨论强大AI可能带来的美好未来是非常重要的,而且我们必须尽力避开那些陷阱。事实上我认为,除了应对风险之外,我们还需要一个真正激励人心的未来愿景。强大AI确实有很多挑战和风险,但最终我们应该为某些积极的结果而奋斗,这些结果能够让每个人受益,并让人们团结起来,去应对未来的挑战。恐惧可能是一种驱动力,但并不够:我们还需要希望。


强大AI的应用潜力广泛(包括机器人、制造业、能源等许多领域),但我将重点讨论几个我认为最有可能直接改善人类生活质量的领域。我最感兴趣的五个方向是:


1.生物学与身体健康


2.神经科学与心理健康


3.经济发展与消除贫困


4.和平与治理


5.工作与人生意义


按大多数标准来看,我的预测可能显得比较激进,但是真心实意的。我所说的很可能在细节上出现偏差,但我至少尝试从半分析的角度出发,结合各领域的进展速度来预测其实际影响。我在生物学和神经科学领域有专业背景,对经济发展也有所了解,但我肯定会有很多误判。撰写这篇文章让我意识到,召集一群领域专家来撰写一份更为准确和深入的版本可能会更有价值。可以把我的努力当作这一群体讨论的起点。


基本假设和框架


为了让这篇文章更具体、更有依据,我想先明确我们所说的“强大AI(powerful AI)”的定义,也就是预计5到10年内会出现的AI,同时为思考这种AI的影响构建一个框架。


什么是“强大AI”,它何时或是否会出现,这本身就是个巨大的话题。我曾公开谈论过这个问题,未来可能还会专门写一篇文章来详细阐述这一点。显然,许多人对“强大AI”是否会很快出现持怀疑态度,甚至有些人怀疑它是否会出现。我个人认为,最早可能在2026年见到它,但也不排除会花更长时间。不过,为了本文的目的,我希望暂时搁置这些争论,假设它会在相对较短的时间内到来,并专注于它到来后5到10年内的影响。同时,我还想假设一个具体的定义,关于这种系统是什么样子,它拥有什么样的能力,以及它会如何与世界互动,尽管对此还有很多分歧。


关于“强大AI”,我所指的是一种AI模型——在形式上可能类似于现在的LLM,尽管可能基于不同的架构、涉及多个相互作用的模型,训练方式也可能有所不同。这个AI模型具备以下特征:


  • 在智能水平上,在各个相关领域(如生物学、编程、数学、工程、写作等)都比诺贝尔奖得主更聪明。这意味着它能够证明尚未解决的数学定理、写出非常优秀的小说、从头编写复杂的代码库等。


  • 不仅仅是“一个你可以交谈的智能体”,它还具备人类在虚拟环境中操作的一切“接口”,包括文本、音频、视频、鼠标键盘控制以及网络访问。它能够执行任何由这些接口支持的操作,比如在互联网上进行操作、指导人类或机器执行任务、订购物资、指导实验、观看和制作视频等。它能以超越最有能力的人类的技能来完成所有这些任务。


  • 它不仅仅是被动回答问题,还能接受需要数小时、数天甚至数周完成的任务,然后自主执行,就像一个聪明的员工那样,必要时会提问来澄清问题。


  • 它没有实体化的形态(除了在计算机屏幕上显示),但可以通过计算机控制现有的工具、机器人或实验室设备;理论上,它甚至可以为自己设计机器人或设备来使用。


  • 用于训练这种模型的资源可以被重新利用来运行数百万个副本(预计到2027年左右会实现这种规模),这些模型能够以大约10倍到100倍于人类的速度吸收信息并采取行动。不过,它的速度可能会受到物理世界或它所互动的软件的响应时间限制。


  • 这数百万个副本都可以在不同的任务中独立行动,也可以像人类一样协同工作,甚至在不同子团队间进行精细的任务分工。


我们可以把这描述为一个“位于数据中心的天才国度”。


这样的存在显然能够非常快速地解决极其复杂的问题,但要准确预估其速度并不简单。有两种“极端”观点我都不认同。首先,有人可能认为,世界会在几秒或几天内被彻底改变(所谓“奇点”),因为这种超强的智能会不断自我提升,一瞬间解决所有科学、工程和操作上的难题。但问题在于,现实世界中有实际的物理和实践限制,比如硬件制造或生物实验。即便是一个新的“天才国度”,也会面临这些限制。智能可能非常强大,但它并不是魔法。


另一方面,有人会认为技术进步已经饱和,或者受到现实世界数据和社会因素的限制,因此超越人类的智能不会带来太大的改变。这种想法同样不太可信——我能想到数百个科学甚至社会问题,如果有一群真正聪明的人专注其中,进展将会大大加快,尤其是如果他们不仅限于分析,还能在现实世界中推动实际的进展(我们的“天才国度”可以做到这一点,包括指导或辅助人类团队)。


我认为事实可能会是这两种极端之间的某种混合体,根据具体任务和领域的不同,有着非常微妙的差异。我相信我们需要新的框架来以建设性的方式思考这些细节。


经济学家经常讨论“生产要素”,比如劳动力、土地和资本。“劳动力/土地/资本的边际回报”表达了这样一个概念:在某种情况下,某一生产要素可能会成为限制因素——例如,一个空军既需要飞机也需要飞行员,如果没有足够的飞机,增加飞行员的数量就没有太大帮助。我认为,在AI时代,我们应该讨论“智能的边际回报(marginal returns to intelligence)”,并试图找出与智能互补的其他因素,在智能水平非常高时会成为限制因素。我们还不习惯这种思维方式,即去问“在某个任务中,变得更聪明能带来多少帮助,所需的时间是多少?”——但这似乎是理解一个拥有强大AI的世界的正确方法。


我认为,以下这些因素会在一定程度上限制或与智能互补:


  • 外部世界的速度。智能体需要在世界中进行交互才能完成任务并进行学习,但世界的运行速度是固定的。细胞和动物的活动速度是固定的,因此在它们身上做实验需要一定的时间,这是无法缩短的。同样,硬件、材料科学、所有需要与人沟通的部分、现有的软件基础设施都存在类似的限制。此外,在科学研究中,很多实验通常需要按顺序进行,每一个实验都基于前一个实验的结果。这一切意味着,完成一项重大项目(例如开发一种癌症治疗方法)所需的时间可能存在一个不可减少的最低限度,即使智能水平在不断提高。


  • 对数据的需求。有时缺少原始数据,在这种情况下,更高的智能也无济于事。如今的粒子物理学家非常聪明,并提出了很多理论,但由于粒子加速器的数据非常有限,他们无法在这些理论中做出选择。如果数据不足,即便超智能也难以显著提升进展,最多可以通过加速建造更大的加速器来缩短时间。


  • 内在的复杂性。有些事情本质上是不可预测或混沌的,即使是最强大的AI也无法比现在的人类或计算机显著更好地预测或解决这些问题。例如,即便是极其强大的AI在处理混沌系统(比如三体问题)时,也只能比现有人类和计算机略微领先一些。


  • 来自人类的约束。许多事情在不违反法律、伤害人类或破坏社会的前提下是无法完成的。一个对人类友好的AI不会希望去做这些事情(如果我们面临的是一个不友好的AI,那就要回到关于风险的讨论了)。很多人类社会结构低效甚至有害,但在遵守法律、尊重人们习惯和考虑政府行为等限制条件下,这些结构很难改变。一些技术(包括像核能、超音速飞行甚至电梯)在技术上运作良好,但其影响却因法规或不必要的担忧而大打折扣。


  • 物理定律。这是第一个问题的更极端版本。有些物理定律看起来是无法突破的。例如无法超光速,搅拌的布丁不会自己恢复原状,芯片上的晶体管密度到了一定程度就会变得不可靠。计算需要一定的最小能量来消除每个比特的数据,这限制了世界上计算的密度。


这些限制因素还可以根据时间尺度进行区分。一些在短期内看来是硬性约束的因素,随着时间推移,智能的提升可能会使它们变得更加灵活。例如,智能可以被用来开发新的实验范式,让我们能够在体外(而不是依赖活体动物实验)进行研究,或者开发采集新数据的工具(例如更大的粒子加速器),或者在伦理允许的范围内找到绕过人类限制的方法(比如改进临床试验系统、创建在临床试验方面有较少官僚约束的新司法管辖区,或者提高科学水平,从而降低人体临床试验的必要性和成本)。


因此,我们可以想象一个情境:一开始智能会被其他生产要素严重限制,但随着时间的推移,智能本身会逐渐找到绕开这些限制因素的方法,尽管它们永远不可能完全消除(例如物理定律是绝对的)。关键问题在于,这一切会以怎样的速度发生,以什么样的顺序。


带着上述的框架,我将尝试回答这个问题,聚焦于前面提到的五个领域。


生物学与身体健康


生物学大概是科学进步最有潜力直接改善人类生活质量的领域之一。在上个世纪,一些人类古老的疾病终于被消灭了,但还有许多疾病依然存在,消除这些疾病将是一项巨大的成就。除了治愈疾病,生物科学还可以从根本上提高人类的健康水平,延长健康寿命,让人们对自身的生理过程有更多的控制和自由,解决一些我们目前视为人类固有的问题。


按照之前讨论的“限制因素”,将智能直接应用于生物学的主要挑战在于数据、物理世界的速度和内在复杂性(这三者实际上是相互关联的)。人类的限制也在后期阶段起到一定的作用,例如在临床试验环节。我们来逐一分析这些因素。


细胞、动物甚至化学过程的实验会受到物理世界速度的限制:许多生物学实验需要培养细菌或其他细胞,或者等待化学反应发生,而这些过程有时可能需要几天甚至几周的时间,没有明显的加速方法。动物实验可能需要几个月甚至更久,而人体实验通常需要数年,研究长期效果甚至要几十年。相关地,数据的质量也常常不足——虽然数量不少,但高质量、能明确隔离特定生物效应的数据却很缺乏。我们往往缺乏能够清晰、毫不含糊地隔离生物效应的数据,或者能在一个过程中做出因果干预的数据,或者能直接测量某种效应的数据,而非通过间接或嘈杂的方式推测其结果。即便是像质谱技术收集到的海量分子数据,也常常存在噪声问题,并且遗漏了很多信息,例如这些蛋白质是在什么细胞里?细胞的哪个部分?处于细胞周期的哪个阶段?。


这些数据问题在一定程度上是由内在复杂性导致的:如果你见过人类代谢的生化反应图,就会明白在这个复杂系统中,隔离任何一个部分的效应有多难,而想要在系统中精准或可预测地进行干预就更加困难。最后,除了人体实验本身需要花费大量时间之外,实际的临床试验还涉及大量官僚程序和监管要求,这些会增加不必要的时间延迟,从而阻碍进展。


鉴于以上这些情况,许多生物学家长期以来对AI及“大数据”在生物学中的价值持怀疑态度。历史上,数学家、计算机科学家和物理学家在过去30年里将他们的技能应用于生物学领域,虽然取得了一些成功,但没有达到最初设想的那种颠覆性影响。近年来,像AlphaFold这样的重大突破减少了一些怀疑,但仍然有人认为,AI只能在有限的特定情况下发挥作用。常见的一种说法是:“AI可以更好地分析你的数据,但它无法产生更多数据或提高数据质量。Garbage in, garbage out.”


但我认为这种悲观的观点其实是对AI的误解。如果我们关于AI进展的核心假设是正确的,那么应该把AI视为一个虚拟的生物学家,它不仅仅是分析数据的工具,还能执行生物学家们所做的所有工作,包括在现实世界中设计和执行实验(通过控制实验室机器人,或像研究负责人指导研究生那样告诉人类要进行哪些实验),发明新的生物学方法或测量技术,等等。AI真正能够加速生物学发展的方式是通过加快整个研究过程。我想强调这一点,因为这是我在谈到AI如何改变生物学时最常见的误解:我没有把AI只作为分析数据的工具来讨论。而是像开篇对强大AI的定义一样,AI能够执行、指导并改进生物学家几乎所有的工作。


具体来说,我认为生物学进展的加速可能来自于一个令人惊讶的大方向——大量进步其实都源于非常少量的发现,往往与广泛使用的测量工具或技术有关,它们可以实现对生物系统精确但灵活的干预。每年大约有1个这样的重大发现,推动了生物学50%以上的进步。这些发现之所以如此重要,正是因为它们突破了内在的复杂性和数据限制,直接提升了我们对生物过程的理解和控制。几次重要的发现就奠定了我们对生物科学的基本理解,并推动了许多最强有力的医学疗法。举几个例子:


  • CRISPR:一种可以在活体中编辑任意基因的技术,可以将任意的基因序列替换为其他任意序列。自从最初的技术诞生以来,人们不断改进它,使之能够针对特定的细胞类型,提高精准度,并减少错误编辑,这些都是在人体安全使用该技术所必需的。


  • 各种显微技术:能够精确观测微观过程的显微镜技术,包括先进的光学显微镜(配有各种荧光技术和特殊光学元件)、电子显微镜、原子力显微镜等。


  • 基因组测序和合成:过去几十年中,基因组测序和合成的成本降低了好几个数量级。


  • 光遗传学技术:能够通过光照刺激特定神经元活动。


  • mRNA疫苗:理论上可以让我们设计出针对任何病原体的疫苗,并能够迅速调整(mRNA疫苗在COVID期间广为人知)。


  • 细胞疗法:如CAR-T疗法,可以将免疫细胞从体内取出并“重新编程”,以便针对特定目标进行攻击。


  • 概念性突破:例如疾病的病原理论,或发现免疫系统与癌症之间的联系。


列出这些技术是为了提出一个关键观点:如果有更多富有才华和创造力的研究者,我认为这些技术的发现速度可以增加10倍以上。换句话说,这类发现的“智能回报”非常高,生物学和医学的其他一切进展基本都依赖于这些突破。


为什么我会这么认为?是因为当我们在评估“智能的回报”时,需要习惯性地去思考几个问题。首先,这些重大突破通常且往往是由少数几个研究人员完成的,这说明这更多是一种能力的体现,而不是随机探索的结果。其次,很多发现其实“本可以”更早出现。以CRISPR为例,它作为细菌免疫系统中的一种天然成分早在80年代就被发现了,但直到25年后,人们才意识到可以把它用于基因编辑。再者,许多有前景的研究方向,常常因为科学界缺乏足够的支持而被拖延了好几年(就像mRNA疫苗的发明经历中也有类似情况,类似的故事数不胜数)。第三,很多成功的项目,一开始其实只是人们并不太看好的边缘探索,而不是那些起初就得到大量支持的大规模计划。这也意味着,即使那些潜力巨大的发现,识别和推动它们成功依然是个不小的挑战。


最后,虽然有些发现存在“连续依赖性”(需要先完成发现A,才能获得实现发现B的工具或知识),这确实可能会导致实验延迟,但很多乃至大多数发现都是相互独立的,这意味着可以同时进行多项研究。这两点,再加上我作为生物学家的经验,让我坚信,如果科学家们能更聪明、更善于把人类积累的大量生物学知识联系起来,就有数百个类似的发现等着我们去实现。AlphaFold和AlphaProteo在解决许多重要问题时比人类更高效,这让我们看到尽管几十年来物理建模的设计非常精密,它们的成功可以为我们指明前进的方向。


因此,我猜测强大的AI至少可以将这些发现的速度提升10倍,让我们在5到10年内获得未来50到100年的生物学进展。为什么不是100倍呢?或许是有可能的,但在这里,“连续依赖性”和实验时间就变得很重要:要在一年内实现100年的进步,需要一切都能在第一次就顺利进行,包括动物实验以及设计显微镜或昂贵的实验室设施。我实际上对这样的想法持开放态度,即在5到10年内实现1000年的进展,但我对在一年内实现100年的进展则持怀疑态度。换句话说,我认为存在一个不可避免的常数延迟:实验和硬件设计有一定的“延迟”,需要在一定的“不可减少”的次数上进行迭代,才能学习那些不能通过逻辑推导得出的知识。不过在此基础上,进行大规模并行处理是有可能的。


那临床试验呢?尽管与之相关有很多官僚主义和拖延现象,但事实上它们的许多(虽然并非全部)延迟最终源于对药物进行严格评估的需要,特别是那些疗效微弱或效果不明确的药物。可悲的是,在今天的大多数疗法中都是如此:平均而言,癌症药物仅能将生存时间延长几个月,同时伴随显著的副作用,这些副作用需要被仔细测量(针对阿尔茨海默症药物也有类似的情况)。这导致了庞大的研究规模和难以权衡的取舍,而监管机构通常在这方面并不是特别擅长,这同样是由于官僚主义和复杂的利益冲突所致。


当事情运行得非常顺利时,进展会更快:在效果明显时,审批会更快更容易。以COVID的mRNA疫苗为例,它们在9个月内获批——这远快于通常的审批速度。尽管如此,即便在这种情况下,临床试验的速度依然太慢——mRNA疫苗实际上应该在大约2个月内获批。然而,这种延迟(对药物全程来说大约有1年)再加上大规模并行处理,以及对一定程度但不过度迭代的需求(“尝试几次”),非常适合在未来5到10年内实现彻底的变革。更加乐观地说,借助AI,生物科学可能会通过开发更好的动物和细胞实验模型(甚至是模拟)来减少临床试验中的迭代需求,从而更准确地预测人体反应。这在开发抗衰老药物方面尤为重要,因为衰老过程的变化持续几十年,而我们需要更快的迭代循环。


最后,关于临床试验和社会上的障碍,值得特别指出的是,某种程度上生物医学创新在成功应用方面的记录异常出色,这与某些其他技术形成了鲜明对比。如前言所提,许多技术尽管在技术上运行良好,却受到社会因素的制约。这可能会让人对AI能达到的成就产生悲观的看法。然而,生物医学独特之处在于,尽管药物开发过程过于繁琐,但一旦药物开发成功,它们通常会被有效部署和使用。


总而言之,我的基本预测是,借助AI的生物学和医学将使我们能够将人类生物学家在接下来50-100年内可能取得的进展压缩在5-10年内。我将这一现象称为“压缩的21世纪(compressed 21st century)”:在强大AI的开发后,我们将在短短几年内取得本该需要整个21世纪的生物学和医学进展。


尽管对强大AI在未来几年能做些什么的预测本质上仍然困难且不确定,但问“人类在未来100年内能独立完成什么?”这个问题还是有一定实质性的。简单回顾一下我们在20世纪取得的成就,或从21世纪的前20年进行推测,或者想象一下“10个CRISPR和50个CAR-T”能带来什么,都提供了实用且切实可行的方式来估算我们可能从强大AI中期待的整体进展水平。


我尝试在下面列出我们可能期待的结果。这不是基于任何严谨的方法论,细节上几乎肯定会出错,但它旨在传达我们应该期待的进展的整体激进程度:


  • 对几乎所有自然传染病的可靠预防和治疗。鉴于20世纪在对抗传染病方面取得了巨大进展,想象一下在压缩的21世纪我们能够“完成这项工作”并不是激进的想法。mRNA疫苗和类似技术已经为“任何疾病的疫苗”指明了方向。传染病是否能在全球范围内彻底消除取决于贫困和不平等的问题,这将在第3部分讨论。


  • 大多数癌症的消除。在过去几十年中,癌症的死亡率每年下降约2%;因此,按当前的科学进展速度,我们有望在21世纪消除大多数癌症。一些亚型已经得到了很大程度的治愈(例如某些类型的白血病通过CAR-T疗法得到了治愈),能针对早期癌症并阻止其生长的选择性药物令我更加兴奋。AI还将使治疗方案能够根据癌症的个体基因组进行精细调整——这种方式今天是可能的,但在时间和人力专业知识上成本巨大,而AI应该能帮助我们实现规模化。在死亡率和发病率上降低95%或更多似乎是有可能的。不过,癌症种类繁多且具有适应性,因此可能是这些疾病中最难完全消灭的。如果仍有一些罕见而顽固的恶性肿瘤存在并不令人惊讶。


  • 对遗传病非常有效的预防与治疗。通过大幅改善胚胎筛查,可能会使大多数遗传病的预防成为可能,而一些更安全、更可靠的CRISPR后代可能会治愈现有患者的大多数遗传病。然而,影响大部分细胞的全身性疾病可能是最后的难关。


  • 阿尔茨海默病的预防。我们一直很难确定阿尔茨海默病的病因(与β-淀粉样蛋白有关,但实际细节似乎非常复杂)。这似乎正是可以通过更好的测量工具来解决的问题,这些工具可以隔离生物学效应;因此,我对AI解决这个问题持乐观态度。一旦我们真正理解发生了什么,阿尔茨海默病有很大机会通过相对简单的干预措施得以预防。不过,已经存在的阿尔茨海默病造成的损害可能非常难以逆转。


  • 改善大多数其他疾病的治疗。这一类别涵盖了包括糖尿病、肥胖、心脏病、自身免疫性疾病等在内的各种疾病。与癌症和阿尔茨海默病相比,这些疾病似乎“更容易”解决,而且在很多情况下,它们的发生率已经显著下降。例如,心脏病的死亡率已经下降了超过50%,而像GLP-1激动剂这样的简单干预措施,已在对抗肥胖和糖尿病方面取得了明显进展。


  • 生物自由。过去70年间,在避孕、生育、体重管理等方面取得了很大进展。但我认为,借助AI加速的生物学将大大拓宽我们的可能性:体重、外貌、繁殖和其他生物过程将完全掌握在个人手中。我们称这一概念为生物自由:每个人都应有能力选择自己想要成为的样子,以最符合自己期望的方式生活。当然,关于全球公平获取资源的问题也至关重要;这方面的内容将在第3部分讨论。


  • 人类寿命的翻倍。这听起来可能有些激进,但在20世纪,预期寿命几乎翻了一番(从约40岁提高到约75岁),因此,“压缩的21世纪”再次将其翻倍至150岁,这似乎是“符合趋势”的。显然,减缓实际衰老过程所需的干预措施,与上个世纪为了防止(主要是儿童)因疾病而过早死亡所需的措施会有所不同,但变化的幅度并非前所未有。具体来说,已经有一些药物能够使老鼠的最大寿命增加25%到50%,且副作用有限。而某些动物,比如一些类型的龟,已经能活到200岁,所以人类显然并没有处于某种理论上的上限。我的猜测是,最重要的可能是需要可靠的、不会被误用的衰老生物标志物,这将有助于快速迭代实验和临床试验。一旦人类寿命达到150岁,我们可能会达到“逃逸速度”,获得足够的时间让如今的大多数人能够活得如愿,尽管在生物上不保证可行。


值得关注的是,如果在7到12年内实现这份清单上的所有目标(这与激进的AI时间表相符),世界将会有多么不同。毫无疑问,这将是人类历史上难以想象的胜利,几千年来困扰人类的大多数灾难将同时消失。我的许多朋友和同事都在养育孩子,我希望当他们的孩子长大后,对他们来说提到任何疾病听起来就像今天我们谈论坏血病、天花或鼠疫一样陌生。那一代人将受益于更大的生物自由和自我表达,运气好的话,他们也将能够按自己的意愿活得更久。


对于除了少数几位预见到强大AI可能性的人以外,其他所有人来说,这些变化的冲击力很难被高估。例如,目前美国有成千上万的经济学家和政策专家正在讨论如何保持社会保障和医疗保险的可持续性,以及如何更广泛地降低医疗成本(这些成本主要由70岁以上的人群,尤其是癌症等绝症患者消耗)。如果上述目标能够实现,这些项目的状况很可能会得到根本改善,因为工作年龄人口与退休人口的比例将发生巨大的变化。毫无疑问,这些挑战将被其他问题取而代之,例如如何确保广泛获得新技术,但值得反思的是,即使只有生物学这一领域因AI而获得成功加速,世界也将会发生多大的变化。


神经科学与心理健康


在上一部分中,我专注于身体疾病和生物学的总体,而没有涉及神经科学或心理健康。但神经科学是生物学的一个子学科,心理健康与身体健康同样重要。事实上,心理健康在某种程度上对人类福祉的影响甚至比身体健康更为直接。数亿人因成瘾、抑郁、精神分裂症、低功能自闭症、创伤后应激障碍、反社会人格或智力障碍等问题,生活质量极低。还有数十亿人则面临日常问题,这些问题往往可以被视为这些严重临床疾病的较轻版本。与一般生物学一样,除了应对问题之外,还可能超越这一点,改善人类体验的基础质量。


我为生物学设定的基本框架同样适用于神经科学。这个领域的发展依赖于少数几项发现,这些发现通常与测量或精确干预的工具有关——在上述列表中,光遗传学就是一个神经科学的发现,最近的CLARITY和扩展显微术也是类似的进展,此外,许多直接应用于生物学的方法也适用于神经科学。我认为这些进展的速度同样会被AI加速,因此“在5到10年内实现100年的进展”的框架也适用于神经科学,原因与生物学相同。在20世纪,神经科学的进展也是巨大的——例如,直到1950年代我们才理解神经元是如何发射信号的。因此,期待AI加速的神经科学在短短几年内产生迅速进展似乎是合理的。


在这个基本框架上,我们还应该补充一点:在过去几年中,我们对AI本身的某些认识或正在学习的内容很可能会推动神经科学的发展,即使这些工作仍然仅由人类进行。可解释性就是一个显而易见的例子:尽管生物神经元的运作表面上与人工神经元截然不同(它们通过脉冲进行通信,并且通常通过脉冲频率传递信息,因此存在时间因素,而人工神经元则没有,细胞生理学和神经递质相关的许多细节显著改变了它们的运作),但“由分布式、训练过的简单单元组成的网络如何协同工作,进行重要计算”这个基本问题是相同的。我强烈怀疑,个别神经元之间的通信细节将在关于计算和电路的大多数有趣问题中被抽象化。举一个例子,最近在AI系统中由可解释性研究者发现的计算机制,在小鼠大脑中也被重新发现。在人工神经网络上进行实验要比在真实神经网络上容易得多(后者通常需要对动物大脑进行切割),因此可解释性可能会成为提升我们对神经科学理解的工具。此外,强大的AI可能会比人类更好地开发和应用这一工具。


然而,超越可解释性,我们从AI中学到的关于智能系统如何被训练的知识应该(虽然我不确定现在是否已经做到)在神经科学领域引发一场革命。当我从事神经科学研究时,许多人专注于我现在认为是错误的学习问题,因为“缩放假设”和“苦涩教训”的概念尚未存在。简单的目标函数加上大量数据能够驱动极其复杂的行为,这一思想使得理解目标函数和架构偏见变得更有趣,而理解新兴计算的细节则显得不那么重要。近年来我没有密切关注这一领域,但我隐约感到计算神经科学家们仍未完全吸收这个教训。我对缩放假设的态度一直是“啊哈——这在高层次上解释了智能如何运作以及它是如何如此轻易进化的”,但我不认为这是大多数神经科学家的看法,部分原因是“缩放假设”作为“智能的秘密”在AI界内部也没有被完全接受。


我认为神经科学家应该试图将这一基本见解与人脑的特殊性(生物物理限制、进化历史、拓扑结构、运动和感觉输入/输出的细节)结合起来,努力破解神经科学中的一些关键难题。有些人可能在这样做,但我怀疑这还不够,而AI神经科学家将能够更有效地利用这一角度来加速进展。


我期待AI通过四条不同的途径加速神经科学的进展,所有这些途径希望能够协同作用,以治愈心理疾病并改善功能:


  • 传统的分子生物学、化学和遗传学。与第一部分中提到的一般生物学的故事基本相同,AI可能通过相同的机制加速这一过程。有很多药物通过调节神经递质来改变大脑功能,影响警觉性或感知,改变情绪等,AI可以帮助我们发明更多此类药物。AI也可能加速对心理疾病遗传基础的研究。


  • 精细的神经测量与干预。这指的是测量大量个体神经元或神经回路的活动,并进行干预以改变其行为。光遗传学和神经探针是能够在活生物体中进行测量和干预的技术,并且已经提出了一些非常先进的方法(例如,用分子计时器读取大量个体神经元的放电模式),在理论上似乎是可行的。


  • 先进的计算神经科学。如上所述,现代AI的具体见解和整体思路可能会对系统神经科学中的问题产生有益的影响,甚至有可能揭示复杂疾病(如精神病或情绪障碍)的真正原因和动态。


  • 行为干预。考虑到我们关注的是神经科学的生物学方面,我之前没有过多提及,但精神病学和心理学在20世纪发展出了一系列广泛的行为干预方法;因此,AI很可能也能加速这些方法的开发,无论是新方法的创造还是帮助患者坚持现有方法。从更广泛的角度来看,“AI教练”的概念似乎非常有前景,这种教练可以随时帮助你成为更好的自己,研究你的互动,帮助你学习更有效的方法。


我猜测,这四条进展路径的协同作用将使我们有望在接下来的100年内治愈或预防大多数心理疾病,即使没有AI的参与——因此在AI加速的情况下,这一过程可能在5到10年内完成。具体来说,我猜测可能会发生以下情况:


  • 大多数心理疾病可能得到治愈。我并不是精神疾病方面的专家(我在神经科学领域的工作主要集中在构建探针以研究小组神经元),但我认为像创伤后应激障碍、抑郁症、精神分裂症、成瘾等疾病,可以通过上述四个方向的某种组合得到有效解决。答案可能是“生化上出现了问题”的某种结合(尽管可能非常复杂)以及“神经网络在高层次上出现了问题”。也就是说,这是一个系统神经科学的问题——尽管这并不否定上述行为干预的影响。特别是在活人中的测量和干预工具,似乎将促进快速迭代和进展。


  • 非常“结构性”的疾病可能相比起来更难治疗,但并非不可能。有证据表明,反社会人格与明显的神经解剖差异有关——一些脑区在反社会人格患者中显得更小或发育不良。人们还认为,反社会人格患者从小缺乏同理心;无论他们的大脑有什么不同,这种情况可能一直都是如此。某些智力障碍和其他疾病可能也是如此。重塑大脑听起来很困难,但似乎也是一项高回报的智力挑战。或许能找到某种方法,使成年大脑回到一个更早或更具可塑性的状态,从而进行重塑。我对此的可能性感到不确定,但我的直觉是,对AI在这方面的创新持乐观态度。


  • 有效的遗传预防心理疾病是可能的。大多数心理疾病在一定程度上具有遗传性,基因组关联研究(GWAS)开始在识别相关因素上取得进展,这些因素通常数量众多。通过胚胎筛查来预防大多数这些疾病可能是可行的,类似于身体疾病的情况。一个不同之处在于,精神疾病更可能是多基因的(许多基因共同影响),因此由于其复杂性,存在无意中选择抑制与疾病相关的积极特征的风险。然而,近年来GWAS研究似乎表明这些关联可能被夸大了。无论如何,AI加速的神经科学可能会帮助我们弄清这些问题。当然,针对复杂性状的胚胎筛查会引发许多社会问题,并且会有争议,尽管我猜测大多数人会支持对严重或导致残疾的心理疾病进行筛查。


  • 日常生活中我们不觉得是临床疾病的问题也会得到解决。大多数人都有日常的心理问题,这些问题通常不会被认为达到临床疾病的程度。有些人易发怒,有些人则难以集中注意力或常常感到困倦,还有一些人感到恐惧或焦虑,或者对变化反应不佳。目前,已经有药物可以帮助改善警觉性或集中注意力(如咖啡因、莫达非尼、利他林),但就像许多其他领域一样,未来有更多的可能性。很可能还有许多此类药物尚未被发现,此外,可能还会出现完全新的干预方式,例如针对性光刺激(参见上文的光遗传学)或磁场干预。考虑到我们在20世纪开发了这么多调节认知功能和情绪状态的药物,我对“压缩的21世纪”充满乐观,希望每个人都能使自己的大脑表现得更好,拥有更加充实的日常体验。


  • 人类的基础体验可以大幅改善。更进一步地说,许多人经历过非凡的启示、创造性灵感、同情、满足、超越、爱、美或冥想的宁静。这些体验的性质和频率因人而异,甚至同一个人在不同时间的体验也可能大相径庭,有时还可以通过各种药物引发(尽管通常伴随副作用)。所有这些都表明,“可体验的可能性空间”非常广泛,生活中更多的时刻可能充满这些非凡的体验。我们或许也可以在各个方面提高各种认知功能。这也许是“生物自由”或“延长寿命”的神经科学版本。


一个在科幻作品中经常出现但我故意没有在这里讨论的话题是“心智上传(mind uploading)”,即捕捉人脑的模式和动态并在软件中实现这一想法。这个话题本身就可以成为一篇文章的主题,但可以简单说一下:尽管我认为从原则上讲,上传几乎肯定是可行的,但在实践中,它面临着显著的技术和社会挑战,即使在强大AI的帮助下,这可能使其超出我们讨论的5到10年的时间范围。


总而言之,AI加速的神经科学可能会极大改善大多数心理疾病的治疗,甚至治愈它们,同时大幅扩展“认知与心理自由”以及人类的认知和情感能力。这一进展将与前一部分中描述的身体健康的改善一样激进。或许外部世界不会明显不同,但人类所经历的世界将变得更加美好和人道,同时提供更多的自我实现机会。我还怀疑,心理健康的改善将缓解许多其他社会问题,包括那些看似政治或经济的问题。


经济发展与消除贫困


前两部分讨论了发展新技术以治愈疾病和改善人类生活质量。然而,从人道主义的角度来看有一个显而易见的问题:“每个人都能获得这些技术吗?”


开发一种治愈疾病的方法是一回事,而在全球范围内根除该疾病又是另一回事。更广泛地说,许多现有的健康干预措施尚未在全球范围内得到应用,而对于一般的(非医疗)技术改进也是如此。换句话说,世界上许多地区的生活水平仍然非常贫困:撒哈拉以南非洲的人均GDP约为2,000美元,而美国则约为75,000美元。如果AI进一步提高发达国家的经济增长和生活质量,而对发展中国家的帮助微乎其微,我们应该视之为一种可怕的道德失误,这也是对前两部分所取得的人道主义胜利的污点。理想情况下,强大的AI应该帮助发展中国家赶上发达国家,同时彻底改变后者。


我对AI能否解决不平等和经济增长的问题的信心,远不如我对其能够发明基础技术的信心,因为技术显然有很高的智力回报(包括绕过复杂性和应对数据缺乏的能力),而经济则涉及人类的许多约束,以及大量内在复杂性。我对AI能否解决著名的“社会主义计算问题”持怀疑态度,我也认为政府不会(也不应该)将其经济政策交给这样的实体,即使它能够做到。此外还有一些问题,例如如何说服人们接受有效但可能让他们感到怀疑的治疗。


发展中国家面临的挑战因私人和公共部门普遍存在的腐败而变得更加复杂。腐败形成了恶性循环:它加剧了贫困,而贫困又滋生了更多的腐败。基于AI的经济发展计划需要考虑腐败、薄弱的机构以及其他非常人性化的挑战。


尽管如此,我依然感到相当的理由保持乐观。许多疾病已经被根除,许多国家从贫穷变得富裕,而显然,这些任务所涉及的决策体现了高智力回报(尽管面临人类的约束和复杂性)。因此,AI可能能够比目前的方式做得更好。可能还会有一些针对性的干预措施能够绕过人类的约束,而AI可以集中精力进行这些干预。然而,更重要的是,我们必须努力去尝试。AI公司和发达国家的政策制定者都需要尽自己的一份力,确保发展中国家不被遗忘;这个道德责任太重大了。因此,在本部分中,我将继续进行乐观的论述,但请时刻记住成功并无保证,这依赖于我们的共同努力。


接下来,我将对在强大AI开发后的5-10年内,发展中国家可能出现的情况进行一些猜测:


  • 健康干预的分配。我最为乐观的领域是将健康干预措施分配到全球各地。实际上,通过自上而下的运动,某些疾病已经被根除:天花在1970年代被完全消灭,脊髓灰质炎和河流盲虫也接近根除,每年病例不足100例。数学上复杂的流行病学模型在疾病根除运动中发挥了积极作用,看起来智能超越人类的AI系统很可能能比人类做得更好。分配的物流也可能得到极大优化。作为GiveWell的早期捐赠者,我了解到一些健康慈善机构的效率远高于其他机构;希望AI加速的努力能更为有效。此外,一些生物学进展实际上使得分配的物流变得更简单:例如,疟疾难以根除,因为每次感染时都需要治疗;而一种只需接种一次的疫苗使得物流变得更简单(而这样的疟疾疫苗实际上正在开发中)。甚至可以实现更简单的分配机制:一些疾病理论上可以通过针对它们的动物传播者来根除,例如释放感染细菌的蚊子,这种细菌阻止它们传播疾病(然后这些蚊子会感染其他蚊子),或是使用基因驱动技术消灭蚊子。这需要一项或几项集中行动,而不是必须逐个治疗数百万人的协调运动。总体而言,我认为5到10年是一个合理的时间框架,预计相当大一部分(或许50%)的AI驱动健康益处将传播到世界上最贫困的国家。一个好的目标可能是,在强大AI发展后的5到10年里,发展中国家的健康水平至少显著高于今天的发达国家,尽管仍然落后于发达国家。实现这一目标当然需要在全球健康、慈善、政治倡导和其他多方面付出巨大努力,AI开发者和政策制定者都应当为此贡献力量。


  • 经济增长。发展中国家是否能够迅速赶上发达国家,不仅在健康方面,还在经济各个方面?这方面有一些先例:在20世纪最后几十年,几个东亚经济体实现了年均近10%的实际GDP增长,成功赶上了发达国家。推动这一成功的决策是由人类经济规划者做出的,他们并不是通过直接控制整个经济,而是通过调整几个关键杠杆(例如以出口为导向的工业政策,并抵制依赖自然资源财富的诱惑);因此,“AI财政部长和中央银行行长”有可能复制或超越这一10%的成就。一个重要问题是如何让发展中国家的政府在尊重自决原则的同时采纳这些政策——有些国家可能对此热情高涨,但其他国家则可能持怀疑态度。乐观的一面是,前述健康干预措施很可能会自然地推动经济增长:根除艾滋病/疟疾/寄生虫病将对生产力产生变革性的影响,更不用说一些神经科学干预(如改善情绪和专注力)在发达国家和发展中国家带来的经济益处。最后,非健康相关的AI加速技术(例如能源技术、运输无人机、改进的建筑材料、更好的物流和分配等)可能会自然而然地渗透到世界各地;例如,手机迅速通过市场机制在撒哈拉以南非洲普及,而不需要慈善努力。然而,较为消极的一面是,虽然AI和自动化有许多潜在的好处,但它们也给经济发展带来了挑战,特别是对尚未工业化的国家来说。在日益自动化的时代,确保这些国家仍能发展和改善其经济是经济学家和政策制定者必须解决的重要挑战。总体而言,一个理想的场景——或许是我们应努力追求的目标——是在发展中国家实现20%的年GDP增长率,其中10%来自AI驱动的经济决策,10%来自AI加速技术的自然传播,包括但不限于健康领域。如果实现,这将在5到10年内使撒哈拉以南非洲的人均GDP达到中国当前水平,同时将发展中国家的其他大部分地区提升到高于美国当前GDP的水平。同样,这只是一个理想的场景,并非默认发生的情况:这是我们所有人必须共同努力,使其更有可能实现的目标。


  • 粮食安全。作物技术的进步,例如更好的肥料和杀虫剂、更多的自动化以及更有效的土地利用,在20世纪极大地提高了作物产量,使数百万人免于饥饿。基因工程目前正在进一步改善许多作物。寻找更多方法来实现这一点,以及使农业供应链更加高效,可能会带来一个AI驱动的第二次绿色革命,帮助缩小发展中国家与发达国家之间的差距。


  • 减缓气候变化。气候变化在发展中国家将产生更为严重的影响,妨碍其发展。我们可以预期,AI将促进减缓或防止气候变化的技术进步,从大气碳去除和清洁能源技术,到减少我们对碳密集型工厂养殖依赖的实验室培育肉类。当然,如前所述,技术并不是限制气候变化进展的唯一因素——与本文讨论的其他所有问题一样,人类社会因素也很重要。但有充分理由认为,AI增强的研究将为我们提供减缓气候变化的手段,使其成本和干扰大大降低,从而使许多反对意见变得无关紧要,让发展中国家有更多机会取得经济进步。


  • 国家内部不平等。我主要将不平等视为一种全球现象(我认为这是其最重要的表现),但当然,国内也存在不平等的问题。随着先进的健康干预措施以及特别是寿命或认知增强药物的激增,人们确实会担心这些技术“只属于富人”。我对发达国家内部的不平等持更乐观的态度,主要有两个原因。首先,发达国家的市场运作更好,而市场通常在降低高价值技术的成本方面表现出色。其次,发达国家的政治机构对公民的响应能力更强,且拥有更大的国家能力来执行普及访问程序——我预计公民会要求获得显著改善生活质量的技术。当然,这种要求的成功并非注定——这也是我们集体必须尽一切努力确保公平社会的地方。在财富不平等(与生命拯救和提升技术的获得不平等相对)方面还有一个单独的问题,这似乎更为复杂,我将在第5部分讨论。


  • 选择退出问题。在发达和发展中国家,关注的一个问题是人们选择退出AI驱动的福利(类似于反疫苗运动,或更广泛的反技术运动)。最终可能会出现不良反馈循环,例如,最难做出明智决策的人选择退出改善他们决策能力的技术,从而导致差距不断扩大,甚至创造出一个反乌托邦的下层社会(一些研究人员认为这会削弱民主,这一话题我将在下一部分进一步讨论)。这再次给AI的积极进展带来了道德上的污点。这是一个难以解决的问题,因为我认为强迫人们并不符合伦理,但我们至少可以努力提高人们的科学理解——或许AI本身可以帮助我们做到这一点。一个令人振奋的迹象是,历史上反技术运动往往更多是“刀子嘴豆腐心”:尽管抨击现代技术很受欢迎,但最终大多数人还是会选择采用,尤其在个人选择的情况下。个人通常会采纳大多数健康和消费技术,而真正受到阻碍的技术,比如核能,往往是集体政治决策的结果。


总体而言,我对快速将AI的生物技术进展带给发展中国家的人们持乐观态度。尽管我对AI是否能实现前所未有的经济增长率并让发展中国家的水平至少超过当前发达国家的状况没有信心,但我仍然抱有希望。我对发达和发展中国家都存在的“选择退出”问题感到担忧,但我怀疑这种情况会随着时间推移而减弱,并且AI可以帮助加速这一过程。这个世界不会是完美的,那些落后的地区在最初几年内也不会完全赶上来。但只要我们付出努力,就有可能让事情朝着正确的方向迅速发展。如果我们做到这一点,就能够为每个地球上的人所应享有的尊严和平等的承诺奠定基础。


和平与治理


假设前三个部分的情况都进展顺利:疾病、贫困和不平等显著减少,人类体验的基础水平大幅提升。但这并不意味着人类所有主要的苦难之·原因都已解决。人类仍然对彼此构成威胁。尽管有科技进步和经济发展带来民主与和平的趋势,但这一趋势非常松散,并且经常出现倒退。在20世纪初,人们认为他们已经将战争抛在身后;但随之而来的却是两次世界大战。三十年前,弗朗西斯·福山写道“历史的终结”,以及自由民主的最终胜利;但这一切尚未实现。二十年前,美国政策制定者相信与中国的自由贸易会导致其在富裕后实现民主化;结果并非如此,现在我们似乎正走向第二次冷战,面对复苏的专制集团。有合理的理论表明,互联网技术实际上可能更有利于专制,而非最初认为的民主。因此,理解强大AI如何与和平、民主和自由的问题交叉,似乎显得尤为重要。


不幸的是,我没有看到强有力的理由相信,AI会以优先或结构性方式促进民主与和平,正如我认为它会结构性地推动人类健康和减轻贫困一样。人类冲突是对抗性的,原则上,AI可以帮助“好人”和“坏人”。如果说有什么值得担忧的结构性因素,那就是AI似乎很可能会使宣传和监控的能力大幅提升,这都是独裁者工具箱中的重要工具。因此,我们作为个体行动者,需要努力朝正确的方向倾斜:如果我们希望AI支持民主和个人权利,我们就必须为这个结果而奋斗。我对此的感受甚至比国际不平等的问题更为强烈:自由民主的胜利和政治稳定并不能保证,甚至不太可能,它需要我们所有人付出巨大的牺牲和承诺,正如过去常常发生的那样。


我认为这个问题可以分为两个部分:国际冲突和国家的内部结构。在国际层面,当强大AI被创造出来时,民主国家在世界舞台上占据上风似乎非常重要。依靠AI的专制主义太可怕了,因此民主国家需要能够设定强大AI进入世界的条款,以避免被专制者压倒,并防范专制国家内部的人权侵犯。


我目前认为最佳解决方案是通过“协约战略”,即一个民主国家的联盟试图通过确保强大AI的供应链、快速扩展,并阻止或延迟对手获取关键资源(如芯片和半导体设备),来获得明确的优势(即便只是暂时的)。该联盟一方面将利用AI实现强大的军事优势(作为威慑),同时向越来越多的国家分发强大AI的好处(作为奖励),以换取这些国家支持该联盟推动民主的战略(这有点类似于“和平利用原子能”)。联盟的目标是争取世界上越来越多的支持,孤立我们最糟糕的对手,最终让他们发现接受与世界其他国家相同的协议会更好:放弃与民主国家的竞争,以获得所有的好处,不与更强的对手作斗争。


如果我们能够做到这一切,我们将拥有一个在世界舞台上领先的民主国家,并拥有足够的经济和军事力量,避免被专制国家破坏、征服或破坏,并且能够将其AI优势转化为持久的优势。这乐观地可能导致“永恒的1991”——一个民主国家占据上风、福山的梦想得以实现的世界。同样,这将非常难以实现,特别需要私营AI公司与民主政府之间的紧密合作,以及在奖惩之间取得极其明智的平衡。


即使所有这一切都顺利进行,仍然会面临各国内部民主与专制之间斗争的问题。在这一点上,显然很难预测将会发生什么,但我确实乐观地认为,如果在全球环境中民主国家掌控着最强大的AI,那么AI实际上可能在各地结构性地支持民主。特别是在这种环境下,民主政府可以利用其更强大的AI赢得信息战争:它们可以反制专制国家的影响力和宣传活动,甚至可能通过提供信息和AI服务的渠道,创造一个全球自由的信息环境,而专制国家缺乏阻止或监控这些信息的技术能力。或许不需要传播宣传,只需反制恶意攻击并打通信息的自由流通。尽管这并非立竿见影,但像这样的公平竞争环境有很大机会逐渐将全球治理倾向于民主,这有几个原因。


首先,第一到第三部分的生活质量提升应该会在一定程度上促进民主。这在历史上已经得到了验证。特别是,我预计心理健康、幸福感和教育水平的提高将有助于增加民主,因为这三者与支持专制领导者呈负相关。一般而言,当人们的基本需求得到满足时,他们会渴望更多的自我表达,而民主正是一种自我表达的形式。相反,专制主义往往依靠恐惧和怨恨。


其次,自由的信息有很大机会确实可以削弱专制政权,只要专制者无法进行审查。未受审查的AI也能够为个人提供强大的工具,以削弱压制性政府。压制性政府通过剥夺人们某种共同的知识来生存,防止他们意识到“皇帝没有穿衣服”。例如,斯尔贾·波波维奇帮助推翻了塞尔维亚的米洛舍维奇政府,他广泛撰写了许多心理学技巧,旨在剥夺专制者的权力,打破魔咒并动员对独裁者的支持。如果每个人的口袋里都有一个超人般有效的AI波波维奇(他的技能似乎具有高智力回报),而独裁者又无力阻止或审查,那么这可能会为全球的异议人士和改革者提供支持。重申一下,这将是一场漫长而艰苦的斗争,胜利并非必然,但如果我们以正确的方式设计和构建AI,至少可以让自由倡导者在各地拥有优势。


与神经科学和生物学一样,我们也可以思考如何让事情“变得更好”——不仅是如何避免专制,还要如何使民主制度比现在更出色。即使在民主国家,社会不公现象依然时有发生。法治社会向公民承诺,人人在法律面前平等,人人都有基本人权,但显然并非所有人都能在实践中享受到这些权利。即便这一承诺部分得以兑现,依然值得骄傲,但AI能否帮助我们做得更好?


例如,AI能否通过让决策和流程更公正来改善我们的法律和司法系统?目前,人们普遍担心AI系统可能会引发歧视,这种担忧是重要的,必须加以防范。同时,民主的活力在于利用新技术改善民主制度,而不仅仅是应对风险。真正成熟和成功的AI实施有潜力减少偏见,为每个人提供更公平的待遇。


几个世纪以来,法律系统面临着这样一个困境:法律旨在公正,但本质上是主观的,因此必须由有偏见的人类来解释。试图使法律完全机械化并没有成功,因为现实世界复杂多变,无法总是用数学公式来描述。法律系统往往依赖于像“残忍和不寻常的惩罚”或“完全没有可赎回的社会重要性”这样的不精确标准,由人类来解释这些标准——而且常常表现出偏见、偏袒或任意性。尽管“智能合约”在加密货币中并没有彻底改变法律,因为普通代码的智能水平不足以裁决很多有意义的事项,但AI可能会在这方面有所作为:它是首个能够以可重复和机械方式进行广泛模糊判断的技术。


我并不是说要完全用AI系统替代法官,但公正性与理解和处理复杂现实情况的能力结合在一起,似乎在法律和正义领域会产生重要的积极应用。至少,这样的系统可以作为决策的辅助工具与人类合作。在这样的系统中,透明性将十分重要,而成熟的AI科学有可能提供这种透明性:这些系统的训练过程可以进行深入研究,利用先进的可解释性技术查看最终模型的内部,评估潜在的隐藏偏见,这一点是人类无法做到的。这些AI工具还可以用于监测司法或警务背景下的基本权利侵犯,使宪法的自我执行能力更强。


此外,AI还可以用来汇总民意并推动公民之间的共识,解决冲突,寻找共同点并寻求妥协。在这方面,一些早期的想法已在计算民主项目中付诸实践,包括与Anthropic的合作。更有信息意识和思考能力的公民群体显然会增强民主制度的力量。


同时,AI也有明确的机会帮助提供政府服务——例如健康福利或社会服务——这些服务在原则上应向所有人开放,但在实践中往往严重不足,在某些地方更为明显。这些服务包括健康服务、车辆管理局、税务、社会保障、建筑法规执行等。拥有一个非常周到且信息丰富的AI,其职责是以易于理解的方式向你提供所有法律上应得的政府福利,同时帮助你遵守常常令人困惑的政府规定,将会是一个重大进展。增强国家的能力不仅有助于兑现法律面前人人平等的承诺,还加强了对民主治理的尊重。服务实施不力目前是对政府产生愤世嫉俗的主要驱动因素。


所有这些想法都还有些模糊,正如我在本节开头所提到的,我对这些想法的可行性并没有生物学、神经科学和减贫方面的进展那么有信心。这些想法可能显得过于理想化。但重要的是要有一个雄心勃勃的愿景,愿意追求远大的目标并尝试各种方案。将AI视为自由、个人权利和法律平等的保障是一个太有力的愿景,值得为之而战。一个21世纪的、以AI为动力的政治体,既可以成为个人自由的更强保护者,也可以成为希望的灯塔,帮助将自由民主作为全球普遍接受的治理形式。


工作与人生意义


即使前四部分的一切都进展顺利——不仅缓解了疾病、贫困和不平等,自由民主也成为了主要的政府形式,现有的自由民主国家变得更完善——至少还有一个重要问题需要解决。有人可能会提出反对意见:“我们生活在一个如此技术先进、同时又公平和体面的世界里,这当然很好,但如果AI包揽了一切,人类如何找到意义?他们将如何在经济上生存?”


我认为这个问题比其他问题更难。我并不是说我对这个问题比对其他问题更悲观,而是因为这个问题更加模糊,很难提前预测,因为它涉及到社会如何组织的宏观问题,而这些问题通常只能随着时间的推移以去中心化的方式得到解决。例如,历史上的狩猎采集社会可能会认为没有狩猎和各种与狩猎相关的宗教仪式,生活就毫无意义,他们会觉得我们现在这个吃得饱、技术先进的社会毫无目的。他们可能也无法理解我们的经济如何能养活所有人,或者在机械化社会中,人们能扮演什么有用的角色。


尽管如此,还是值得谈几句,同时要记住,这一部分的简短绝不意味着我不重视这些问题——恰恰相反,这反映着缺乏明确的答案。


关于意义的问题,我认为仅仅因为AI能比你做得更好,就认为你做的事情毫无意义,这是一个很大的误区。大多数人并非世界上任何领域的佼佼者,但这似乎并不会让他们特别困扰。当然,现在人们可以通过比较优势来贡献力量,并从他们创造的经济价值中找到意义,但人们也非常享受那些不创造经济价值的活动。我花了不少时间玩电子游戏、游泳、散步和与朋友聊天,这些都没有产生经济价值。我可能会花一天时间试着提高电子游戏水平,或者更快地骑车爬上山顶,但对我来说,有人在这些事情上比我做得更好并不重要。总的来说,我认为意义主要来自于人际关系和情感联系,而非经济劳动。人们确实希望获得成就感,甚至是竞争感,在一个后AI的世界中,完全可以花费数年时间尝试某个非常困难且策略复杂的任务,就像今天有人从事研究项目,试图成为好莱坞演员,或者创办公司一样。我觉得,(a)某个AI可能原则上能把这件事做得更好,(b)这项任务不再是全球经济中受到经济回报的元素,这两点并不太重要。


在我看来,经济问题实际上比意义问题更难。在本部分中,“经济”指的是大多数或所有人可能无法在一个足够先进的AI驱动经济中作出有意义贡献的潜在问题。这是一个比不平等问题更宏观的问题,尤其是不平等的技术获得问题,我在第三部分中已经讨论过。


首先,在短期内,我同意比较优势将继续使人类保持相关性,甚至提高他们的生产力,在某些方面还可能拉平人与人之间的竞争。当AI在某个工作中只比人类好90%时,那剩下的10%会让人类获得高度杠杆化的优势,增加报酬,并且创造一大批新的人类工作,用来补充和放大AI擅长的领域,从而使“10%”的作用扩大,继续雇佣几乎所有人。事实上,即便AI在所有事情上都比人类做得好,但如果在某些任务上效率低下或者成本昂贵,或者人类和AI在资源输入上有显著差异,那么比较优势的逻辑仍然适用。在物理世界中,人类可能在很长一段时间内保持相对甚至绝对的优势。因此,我认为即使在我们到达“数据中心的天才国度”的那一刻,整个经济体系仍然会有一定的合理性。


然而,我确实认为,从长远来看,AI将变得如此广泛且高效、成本低廉,以至于上述情况将不再适用。届时,我们当前的经济体系将失去意义,社会需要进行更广泛的讨论,以重新审视经济的组织方式。


虽然这听起来可能有些疯狂,但事实上人类文明过去成功应对了几次重大的经济转变:从狩猎采集到农业,从农业到封建制度,再从封建制度到工业化。我怀疑未来我们可能需要一些更新奇的解决方案,而今天还没有人能很好地构想出这样的方案。也许它会像一种人人享有的大额基本收入那么简单,尽管我怀疑这只是解决方案的一小部分。也许会是一种AI系统主导的资本主义经济,而这些AI系统会基于某种次级经济体系(由AI基于人类价值的判断推导而来)向人类分配资源(由于经济总量巨大,因此会分配大量资源)。或许未来经济会运行在“信任积分(Whuffie points)”上。或者,人类依然在经济中具备价值,只是以一种目前的经济模型未能预料的方式。所有这些解决方案都有可能面临大量问题,在没有经过大量试验和迭代之前,无法判断它们是否合理。和其他一些挑战一样,我们可能需要为一个良好的结果而奋斗:剥削性或反乌托邦式的发展方向显然存在,我们必须防止这些发生。关于这些问题还可以写很多,我希望在将来能够更深入地探讨。


总结


在上述各个话题中,我尝试描绘了一个合理的未来愿景——一个在AI发展顺利的情况下可能实现的世界,一个比今天更美好的世界。我不确定这个世界是否现实,即使它是现实的,也需要很多勇敢而专注的人的巨大努力与奋斗才能实现。每个人(包括AI公司)都需要尽其所能,既要防范风险,也要充分实现其带来的好处。


但这是一个值得为之奋斗的世界。如果这一切真的在未来5到10年间发生——大多数疾病被击败,生物和认知自由得到增长,数十亿人脱离贫困并享受到新技术,自由民主和人权复兴——我猜人们看到这一切时会被深深触动。我指的不是从中获得个人利益的感受,尽管那本身也会很惊人。我指的是看到一系列长期信奉的理想在我们面前一一实现的体验。我相信许多人会因此感动落泪。


在撰写这篇文章的过程中,我注意到一种有趣的矛盾。在某种意义上,这里描绘的愿景非常激进:几乎没有人会期望它在未来十年内实现,甚至会认为这是荒谬的幻想。有些人甚至可能不认为这是值得追求的;它体现了一些价值观和政治选择,并非人人都赞同。但与此同时,这个愿景又显得如此显而易见,仿佛无论如何尝试去设想一个美好的世界,最终都会大致走向这里。


在伊恩·M·班克斯的《游戏玩家》中,主角属于一个名为“文化”的社会,这个社会的原则与我在此阐述的相似。他前往一个压制性的军事帝国,在那里,领导者是通过一场复杂的博弈游戏竞争而选出的。然而,这个游戏足够复杂,以至于玩家在其中的策略往往反映出他们自己的政治和哲学观。主角在游戏中击败了皇帝,表明他的价值观(即“文化”的价值观)甚至在一个建立在无情竞争和优胜劣汰的社会设计的游戏中,也代表着一种获胜策略。Scott Alexander的一篇著名博文也有类似的论点——竞争本身是自我毁灭的,最终会导致一个以同情与合作为基础的社会。“道德宇宙的弧线”也是类似的概念。


我认为“文化”的价值观是一种获胜的策略,因为它是无数小决策的总和,这些决策具有明显的道德力量,往往将大家凝聚在一起。公平、合作、好奇心和自主性等基本人类直觉难以反驳,而且它们以一种我们的破坏性冲动所不具备的方式累积。很容易说服人们,如果能预防,就不应该让孩子死于疾病,而从这里出发,很容易进一步主张所有人的孩子都应享有同样的权利。从这里再进一步,很容易主张我们应该共同努力,运用智慧实现这一目标。几乎没有人反对应当惩罚无故攻击或伤害他人的行为,由此再稍进一步就能推导出惩罚应当在所有人之间一致且系统化的观念。同样地,人们应该拥有对自己生活和选择的自主权与责任,这也是合乎直觉的。如果将这些推到逻辑的极致,最终会走向法治、民主和启蒙价值观。即使这一切不是必然的,但至少从统计趋势来看,人类的方向确实在朝着这里前进。AI只是为我们提供了一个加速实现这一切的机会——让逻辑更清晰,目标更明确。


尽管如此,这依然是一种超越凡尘的美好事物。我们有机会在实现它的过程中,扮演一小部分角色。


文章来自于“Z Potentials”,作者“Grace Bo”。


关键词: AI , AI访谈 , Anthropic , 人工智能
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
智能体

【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。

项目地址:https://github.com/Significant-Gravitas/AutoGPT


【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。

项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md