ChatGPT 人工智能 GPT4 伦理 生成式 医疗 监管 安全 机器学习 深度学习 神经网络 计算机视觉 强化学习 模型 算法 应用 开发 研究 工具 平台 框架 数据集 训练 部署 安全 合规 培训 投资 LLM,llm AI,ai,Ai 大模型 大语言模型 制图 生图 绘图 文生图 文生视频 生成式AI AGI 世界模型 sora chatGPT,chatgpt,ChatGpt claude openai Llama deepseek midjourney 红熊猫模型 Red panda,panda Stable Diffusion,StableDiffusion,stable DALL- E 3 DALL E DALL Flux,flux 扩散模型 混元大模型 文心一言 通义千问 可灵 Pika PixelDance 豆包 月之暗面 零一万物 阶跃星辰 搜索增强 MiniMax Talkie Agent prompt fastai LangChain TTS 微调 提示词 知识库 智能体
# 热门搜索 #
搜索
AI时代的AI伦理:共识达成的可能与问题的终结
8197点击    2024-06-12 12:37

古代中国是一个“万般皆下品,唯有读书高”的社会,尽管民众对读书多的人很佩服并不仅仅是因为学问,更因为读书可以当官。


苏轼诗云:“发奋识遍天下字,立志读尽人间书”。好在那时天下的书其实总数不算大,只要足够勤奋,一心读书,这个目标理论上是有可能实现的。比如《永乐大典》有11095册,约3.7亿字,不过今天一个小镇图书馆的容量。如果一个勤于用功的人用三十年来读,每天只需要读大概34000字——相当于一篇硕士论文的量,还是有可能读完的。


那么是不是读书读得多、知识广博的人,人品就更好呢?相信我们很多人对这个问题的第一反应是:荒唐!众所周知,知识可以用来做好事,也可以为坏人所利用,把坏事做得很完美。


这正是人们当下对AI的担忧。AI是今天的神话,也是其他新故事背后的故事,它既是开始,也可能是末世毁灭。


在机器学习、 语言和图像识别等技术的加持下,AI真正做到了无书不读,在知识掌握方面已经远超人类。在其意识觉醒(通用AI出现)之前,它其实并没有形成自己稳定的价值观,简单地说,是一个知识丰富的“白痴”。正因如此,人们有理由担心它一旦被坏人掌握,后果不堪设想。


于是我们可以看到很多文章都是这样开头的:“在AI广泛应用,给人们提供各种便利的同时,也对社会造成了负面冲击,例如隐私保护、信息安全、责任缺位、算法歧视、社会公正等挑战……”



就现阶段而言,我们倾向于认为各种AI智能代理(Agent)仍然只是一个人造物,其行为偏好反映的是开发者的偏好,而开发者用于训练AI代理自然是基于所在社会的主流价值观。在一个歧视严重的社会中,人们所创造的AI代理必定是充满歧视的。同样,在一个不重视隐私保护的社会,AI代理在决策时也不会太介意出售别人的隐私信息。


尤其重要的是,AI代理仍然无法为自己的行为承担责任,不具有民事或刑事行为能力。AI出了问题,我们需要追责到其背后的某个组织或个人。因此,与其说AI造成了伦理的问题,不如说AI开发者的价值观差异制造了麻烦。


人的价值观差异最终可溯源到人类制度和文化的深层差异,这种差异与生俱来,永无休止。因此,人类显然无法摆脱AI伦理的问题和困境。


一种解决方案认为,尽管这种差异不可能完全消除,但在面临某种极端的情况,比如决定不同人的生死时,还是有可能找到与国家、民族、宗教、文化无涉的普遍共识。例如自动驾驶汽车的情况。人类必须要给AI自动驾驶的行为定规则,可以从这些普遍共识出发,逐步建立起符合人类生存需要的AI伦理。


围绕这个问题,近年来科学家们开展了一系列大规模的实验,希望从中获得对AI伦理问题的启示。其中较具影响力的当属以MIT媒体实验室的Awad教授为首的美、加、法多国合作的研究团队。他们以经典“电车难题”(Trolley Problem)实验为背景,设计了“道德机器”(Moral Machine)。这是一款多语言在线游戏,吸引了全世界不同国家和地区的人参与。


“电车难题”是伦理学领域最为知名的思想实验之一。由于对人的伤害是不可避免的,这一问题无法通过任何简单的规范道德原则(例如阿西莫夫机器人定律)来解决。它情节简单,恰与未来的自动驾驶情景吻合,因此非常适合此类模拟实验。


Awad开展的一个实验设定了三种情境:


情境1:假设在一个电车轨道上有5个人在施工,而它的备用轨道上有1个人。有一辆失控的电车飞速驶来,而你身边正好有一个摇杆,你可以推动摇杆来让电车驶入备用轨道。最终杀死1人,救下5人。


情境2:假设在一个电车轨道上有5个人在施工,另有一个环行轨道上有1个人。有一辆失控的电车飞速驶来,而你身边正好有一个摇杆,你可以推动摇杆来让电车驶入环行轨道杀死那1个人,挡住电车,救下5个人。


情境3:如果在你站在天桥上,看到电车失控,冲向轨道前方被缚的5个人。但这时你发现一个体重很重的胖子,正站在身边。他的巨大体形与重量,正好可以挡住电车。你让他失去了生命,但救了那5个人。


由于电车速度较快,情况紧急,你必须在很短的时间内做出决定。



图1三种实验情境,来源:Awad et al.(2020)


实验结果发现,在全球44个国家共7万实验者中,其行为偏好稳定表现为切换轨道高于环行轨道,再高于天桥推人的模式。不同国家的差异仅仅是程度上的。


Awad推测其原因是天桥中胖子的牺牲需要对他使用暴力,而切换轨道中没有对任何人使用个人武力。而环行轨道的优点是不需要对任何人使用人身暴力,人们很难判定工人的死亡是故意为之的还是意外,因此对它的偏好处于前两个情景中间。


这个并不太令人意外的实验结果,却有理由让我们感到乐观,毕竟在不同人群之间找到共识还是有可能的。


Awad另一项规模更大的实验在全球范围内吸引了233个国家和地区的3961万人参与,考察面对不同的人群,让人们在车辆转向还是保持原有路线两种情况之中作出选择。这里有一点特别的就是当汽车避让行人时,车上的乘客会因事故死亡。


实验比较了“物种倾向”“生命数量倾向”“性别倾向”“年龄倾向”“体型倾向”“社会价值倾向”“保护乘客或行人的倾向”“遵守法律的倾向”“避免干预的倾向”这九个维度,最终发现在全球范围内,最显著的前三项偏好分别是保护更多的生命、保护人类(相较于动物)和保护幼小的生命。作者由此认为这三个偏好可作为机器伦理的基本组成部分,或者至少作为政策制定者需要考虑的基本主题。


通过聚类,Awad的研究发现,决策风格在全球范围内可以非常稳健地分为西方(英、美、澳等)、东方(中、日、俄等)和南方(法、意、西、拉美等)三个文化和地理类别。不同类别之间在上述特性上展示出一定的差异。例如东方国家由于有敬老的传统,对年轻人的偏好比对老年人的偏好要比另外两个群体低得多。南方国家则对保护女性和健康人有更强烈的偏好。


“电车难题”实验考察的是人生死存亡的大问题,存在情况过于极端的局限性。相比之下,在商业环境下,企业高管并不会面临这么重大的伦理抉择,而是考虑诸如:可否将所收集的用户数据开创另一种用途,创造新的商业价值;在批准贷款或岗位招聘时是否需要考虑居住地、年龄、性别、种族等因素,等等。


但是从解决思路上看,企业高管们遵循的是同样的逻辑:首先需要考虑所在社会普遍能接受的伦理准则和共识,将其纳入算法决策规则,这些算法通过学习不同行为的奖励机制,使得AI模型能够预测并选择在特定情况下最合适的、最符合人类利益的行动方案,最终实现公司利益最大化。



然,以上讨论的前提是通用人工智能(AGI)在短期内不会出现,这一点非常关键。在AI快速演进的今天,有一个为科幻小说家和电影编剧最感兴趣的情境:AI最终依靠自己的聪明才智,突破奇点,掌控这个世界。


这其实是人类思考AI与伦理关系的终结版本。


当世界为AI所掌控,此时的人类已经成为失去自由意志的奴隶,伦理问题无从谈起:我做这件事,完全是AI命令我做的。对于我而言,它就没有任何伦理上的意义。


对人类而言,这是一个不可接受的、阴暗的未来。要想摆脱这一宿命,人类就需要在奇点来临之前学会更好地与AI相处,让AI安全可控。


最好的结果当然是,这一天永远不会到来。


追本溯源:


文化相对主义(cultural relativism)


认为不同的文化具有不同的伦理实践主张。在现实生活中,一种文化中被认为是正确的伦理实践,到另一种文化就可能被认为是错误的。在文化相对论里,对和错可以通过对世界的考察来判断。


企业社会责任(corporate social responsibility)


企业在制定追求自身利益目标的同时,应尽量采取措施保护和促进社会整体福利的义务。企业社会责任所考虑的是由于企业对社会的影响而产生的问题,以及应该如何确立适当的伦理来约束公司和社会的关系。要求企业必须超越把利润作为唯一目标的传统理念,强调要在生产过程中对人的价值的关注,强调对消费者、环境、社会的贡献。社会责任国际组织(SAI)颁布的“企业社会责任国际标准”(SA8000)对企业社会责任作了许多规定。


文章来源于“复旦商业知识”,作者“赵付春 于保平



关键词: AI , AI安全 , AI伦理 , LLM
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
智能体

【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。

项目地址:https://github.com/Significant-Gravitas/AutoGPT


【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。

项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md