ChatGPT 人工智能 GPT4 伦理 生成式 医疗 监管 安全 机器学习 深度学习 神经网络 计算机视觉 强化学习 模型 算法 应用 开发 研究 工具 平台 框架 数据集 训练 部署 安全 合规 培训 投资 LLM,llm AI,ai,Ai 大模型 大语言模型 制图 生图 绘图 文生图 文生视频 生成式AI AGI 世界模型 sora chatGPT,chatgpt,ChatGpt claude openai Llama deepseek midjourney 红熊猫模型 Red panda,panda Stable Diffusion,StableDiffusion,stable DALL- E 3 DALL E DALL Flux,flux 扩散模型 混元大模型 文心一言 通义千问 可灵 Pika PixelDance 豆包 月之暗面 零一万物 阶跃星辰 搜索增强 MiniMax Talkie Agent prompt fastai LangChain TTS 微调 提示词 知识库 智能体
# 热门搜索 #
搜索
“皮囊之下”的可信AI:社会美德和创造经济繁荣
5195点击    2024-07-04 12:33
诚者,天之道也;思诚者,人之道也。——孟子


《皮囊之下》这部电影,讲的是一个外星人冒充人类,到处抓人类的故事。


外星人叫斯嘉丽,她假扮成人类,靠诱惑男人然后把他们吃掉。影片一开始她就是这么干的。然后她通过问一些家庭和工作的事情,表现出她像个机器人一样。随后,斯嘉丽开始关注人类的情感,她开始试着吃人类食物,想弄清楚人的内心需求,学习人的行为。她甚至开始谈恋爱,最后反被人用火烧死。


故事很恐怖,不建议看。


今天,恐怖的可不是电影故事,而是我们身边出现了各种各样的“斯嘉丽”。在某些场合中,她化身为你的亲朋好友出现在你的屏幕中或者声音中,或者冒充化身你出现在别人的世界里——要钱。


这些斯嘉丽们比电影里的斯嘉丽更容易吃掉我们——因为他们有AI技术。


今天的AI和深度学习的快速发展,已经可以部分冒充人类,以假乱真。例如通过生成逼真的视频和语音,可以欺骗我们的眼睛和耳朵,让我们以为自己正在与另一个人交谈。或者给一个人换脸出现在视频中,让TA说一些本人实际上从未说过的话,做一些本人未做过的事。


这被称为“深度伪造”(deepfake)。


类似于“深度伪造”这样高超的大规模造假技术,其中蕴藏了巨大的伦理风险。人应该有权知道自己是在与谁打交道,以维护基本的尊严和自主性。比如在使用智能客服时,企业需要明确告知人们,他们正在与一个数字人打交道。如果有需要,他们有权要求切换到真人服务。


这涉及AI使用过程中如何保护人的权益的问题。


????电影《Her》剧照


2024年4月23日,北京互联网法院一审开庭宣判全国首例AI生成声音人格权侵权案。明确认定,在具备可识别性的前提下,自然人声音权益的保护范围可及于AI生成声音。AI生成声音可识别性的认定应综合考虑行为人使用情况,并以相关领域普通听众能否识别作为判断标准。


这个判例促进各界开始更多地关注AI透明度的问题,还包括数据、算法、身份和人机交互过程的透明,接受严格的管制。


面对越来越多的AI应用的现实场景,有关透明度有待求证的一个重要问题是:在知情或不知情两种情况下,人们是更愿意与人合作,还是与AI合作?哪种合作效果更好?进一步,在社交方面,相比于人类决策中广泛存在的偏见和情绪波动,AI会不会是一个比人类更好的合作方?


为了弄清这些问题,阿联酋卡里发(Khalifa)大学的Ishowo-Oloko等人设计了一个实验,邀请玩家参与一个有算法机器人参与的多轮博弈(至少50轮)的囚徒困境游戏。其中机器人的行为由名为 “S++ ”的强化学习算法决定。


实验人员构建了四个组别:与他们知道是人类的人一起玩;与他们知道是机器人的机器人一起玩;或者与他们认为是机器人的人一起玩,以及与他们认为是人的机器一起玩(如表1所示)。


????表1分组情况


实验结果显示,在经历50轮博弈之后,从选择合作策略的比例看,其绩效排名为:第4组>第1组≥第2组>第3组。


与此同时,从多轮博弈结果的变化来看,只有第4组的最终合作水平高于初始水平(从0.517到0.537)。第2组比初始水平略有下降(从0.432到0.416),但总体保持在一定的合作水准(0.4)上。但是第1组(从0.525到0.422)和第3组(从0.452到0.334)均出现明显的下降。可见相比于人与AI代理,人与人的合作更难维持。


基于实验结果,Ishowo-Oloko等人认为,在AI应用中,效率与透明度之间存在内在的冲突:如果我们不了解对手是谁时(透明度低),机器人在诱导合作方面比人类做得更好,人机系统工作效率更高。而一旦机器人暴露其真实身份(透明度高),人类合作意愿会明显下降,整体效率降低。


事实上,从实验对象对合作伙伴的倾向性选择,我们还可以深刻地领会到,它折射出了人们对AI代理的信任度不足的现实。人选择跟谁合作,背后是信任的问题。根据日裔美籍学者弗朗西斯·福山的观点,信任度不足,会成为一个国家经济繁荣的障碍。他曾在《信任:社会美德与创造经济繁荣》一书中明确反对技术统治论者的观点:


“当信息时代的最热心的宣扬者们举杯庆祝等级和权威的垮台时,他们忽视了一个关键因素:信任,以及它所隐含的道德准则。群体是以相互的信任为基础而产生的,没有这个条件,它不可能自发形成”。


但福山当时关注的仅仅是人与人之间的信任,而没有涉及人与AI代理之间的信任。他没有考虑到,如果技术发展成为一个相对独立的主体参与社会分工,人与技术之间的信任度是否构成实现某个经济体繁荣的必要条件?


基于现有研究和实践观察,我们有理由相信,随着AI技术的发展,未来的社会繁荣离不开人对AI的信任,以更好地发挥AI潜力。而这种信任的构建,与人际信任具备高度相似性。


????电影《AI》剧照


已有研究发现,即使用户完全知道AI代理提供的信息是由其设计者编程的,他们仍然会像评估人类一样来评估AI代理本身(而不是其所有者或设计者)的可信度。用户对待他们与AI代理互动的方式类似于与人类的互动。例如,人们可以感知AI代理所表现的人格与自己的人格之间的相似性。而且人们在评估AI代理的可信度时,会采用与评估人类销售人员或顾问相同的信任标准。


因此,我们不妨将现有建立人际信任的方法,移植应用于AI。


例如我们可以认为人们对AI代理的信任也来自两个方面:认知和情感。


基于认知的信任建立在用户理性评估的基础上。人们会搜集证据,以合理化自己“在哪些方面和哪些情况下”可以信任对方,由此构建信任。比如我们可以对AI某方面的能力进行反复检验,看看他能否诚实地处理用户的需求,随机应变地完成任务,以及完成的质量如何,依据这些反馈信息调整自己对它的信任程度。因此,这种形式的信任主要源于用户对AI代理的深入了解。


基于情感的信任则更加微妙,是指人类与AI代理之间的情感纽带。此类信任原是指一个人对伴侣的信任,其特征是安全感和对彼此关系的感知强度,从而产生心理依恋。这种心理依恋不是由推理和理解产生的,而是由感觉和情绪产生的。此外,这也是一种基于互惠准则来评估他人可信度的非理性方法,即你应该以他人对待你的方式对待他人。因此,可以把它看成认知信任的“信念的飞跃”。


那么,人有无可能对AI产生所谓的情感信任?


种种迹象表明,它取决于AI代理承担的角色。在服务类AI代理中,如果AI能让用户感知到心理上的亲密和温暖,就可以让用户对AI产生与对人相似的心理依恋。各类科幻电影(例如《她》《机械姬》等)都在述说着此类故事。


至此,我们发现,在可信AI的世界里,需要的不仅仅是理性。


更重要的,还要有人的情感。


????电影《机械姬》剧照


本文来自微信公众号“复旦商业知识”(ID:BKfudan),作者:赵付春 于保平


关键词: AI , AI监管 , AI法规 , 人工智能
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
数字人

【开源免费】Fay开源数字人框架是一个AI数字人项目,该项目可以帮你实现“线上线下的数字人销售员”,

“一个人机交互的数字人助理”或者是一个一个可以自主决策、主动联系管理员的智能体数字人。

项目地址:https://github.com/xszyou/Fay

2
无人直播

【开源免费】VideoChat是一个开源数字人实时对话,该项目支持支持语音输入和实时对话,数字人形象可自定义等功能,首次对话延迟低至3s。

项目地址:https://github.com/Henry-23/VideoChat

在线体验:https://www.modelscope.cn/studios/AI-ModelScope/video_chat


【开源免费】Streamer-Sales 销冠是一个AI直播卖货大模型。该模型具备AI生成直播文案,生成数字人形象进行直播,并通过RAG技术对现有数据进行寻找后实时回答用户问题等AI直播卖货的所有功能。

项目地址:https://github.com/PeterH0323/Streamer-Sales