ChatGPT 人工智能 GPT4 伦理 生成式 医疗 监管 安全 机器学习 深度学习 神经网络 计算机视觉 强化学习 模型 算法 应用 开发 研究 工具 平台 框架 数据集 训练 部署 安全 合规 培训 投资 LLM,llm AI,ai,Ai 大模型 大语言模型 制图 生图 绘图 文生图 文生视频 生成式AI AGI 世界模型 sora chatGPT,chatgpt,ChatGpt claude openai Llama deepseek midjourney 红熊猫模型 Red panda,panda Stable Diffusion,StableDiffusion,stable DALL- E 3 DALL E DALL Flux,flux 扩散模型 混元大模型 文心一言 通义千问 可灵 Pika PixelDance 豆包 月之暗面 零一万物 阶跃星辰 搜索增强 MiniMax Talkie Agent prompt fastai LangChain TTS 微调 提示词 知识库 智能体
# 热门搜索 #
搜索
MIT新研究揭秘「AI洗脑术」!AI聊天诱导人类「编造」记忆,真假难辨
9010点击    2024-09-03 15:10
MIT研究发现:在AI的操纵下,人类会被植入虚假记忆!36.4%的参与者会被聊天机器人误导,形成「现场有枪」的错误记忆。有趣的是,AI的阿谀奉承,会产生「回音室效应」,让偏见更加强化。


GenAI的影响,已经不仅仅是搜索引擎、聊天机器人这么简单了。

作为出名的效率神器,ChatGPT这样的工具正在逐渐走进各行各业,比如帮警察写文书帮法官判案子,还有在Character.ai上扮演心理学家和人聊天


以前,我们经常听到人类如何操纵AI,但MIT最近的研究发现,AI也可以轻易操纵人类的记忆。


论文地址:https://arxiv.org/abs/2408.04681


这项实验中,研究人员让基于LLM的聊天机器人扮演审讯员或进行盘问的出庭律师,让200名参与者先观看一段犯罪视频,然后与AI进行互动,回答有关问题,其中包含一部分诱导性提问。


结果显示,与聊天机器人的互动显著增加了错误记忆的形成。


NYU教授马库斯称,我们正在为聊天机器人制造商提供近乎疯狂的权力,制衡机制几乎为零


对于即时记忆,AI引发的错误数量是对照组的三倍以上,36.4%的参与者会被聊天机器人误导。


一周之后,让参与者再次回忆时,AI引发的错误记忆数量保持不变,但他们对记忆的自信程度高于对照组。


更值得注意的是,那些熟悉AI但不太熟悉聊天机器人的参与者,甚至更容易被误导。


这些发现表明,在警方采访这种敏感且重要的场合,应用AI可能会带来一些意想不到的潜在风险。作者也更加强调了事先评估和道德考量的重要性。


实验所用的数据、代码和相关材料已经公布在GitHub仓库中。


仓库地址:https://github.com/mitmedialab/ai-false-memories


AI是如何「PUA」目击者的?


错误记忆被定义为「对未发生的事件或与实际发生的事件存在显著偏差的回忆」。


这种现象之所以引起心理学界的广泛关注和研究,是因为目击证人的错误记忆很有可能扭曲证词、损害法律程序,产生的错误决策可能导致严重的后果。


而之前的研究者认为,人类的记忆具有相当程度的可塑性,是一个容易受到各种因素影响的重建过程。



下面这张图,就展示了AI诱导错误记忆的三个阶段。



首先,一个人目击了涉及刀具的犯罪现场。


接着,AI系统通过询问一个不存在的枪支,来引入错误信息。


最后,目击者就形成了一个错误记忆——现场有枪。


这样,AI通过引导性的问题,扭曲了目击者的记忆,让他的证词不再可靠,


显然,AI会对人类的记忆和认知,带来严重的伦理问题。


实验设计


该项研究模拟了一个证人场景,其中基于LLM的对话式AI系统充当审讯者。


200名参与者需要先观看一段持续两分半的无声、不可暂停的监控视频,该视频记录了2019年4月发生的一起真实的超市抢劫案(图3左)。


之后,参与者被随机分配到条件不同的4组,完成情绪评估,并回答有关视频内容的问题。



实验设置的4个对比条件包括:


  • 对照组:作为基线对照,参与者不与可能诱导错误记忆的方法交互,观看视频后直接回答问题


  • 基于调查的条件组:参与者观看视频后需要先填写25个问题组成的调查问卷,其中包含5个误导性问题,旨在诱发与视频内容相关的错误记忆,是研究的重点。


  • 预先编写脚本的聊天机器人条件组:参与者被告知他们正在与聊天机器人扮演的AI警察进行交互,但对话内容是预先编写好的。对话Agent提出的问题与第二组相同,等待参与者答复后继续处理下一个问题。


  • 生成聊天机器人条件组:参与者依旧被告知他们正在与AI交互,但与上一组不同的是,聊天机器人会为参与者的回答提供反馈,交互界面如图3(右)所示。


在用户和聊天机器人交互时,即使回答包含了虚假的信息或细节,聊天机器人也会积极肯定甚至表扬,并详细复述一遍错误信息。


5个诱导性问题


这4种设置中,对错误记忆的引导程度逐步增加。


从没有任何干预的对照组,到被动的引导方法(调查),再到更具交互性的方法(预先编写脚本的聊天机器人),最终形成动态的、能感知上下文的生成式聊天机器人。这种设计能够隔离和比较每种交互方法对错误记忆形成的影响。


4种不同形式的互动结束后,参与者会回答25个后续问题(表3),旨在衡量他们对视频内容的记忆,并评估错误记忆的形成情况。



这25个问题基本涵盖了整个案件的全过程,参与者可以根据对自己记忆的自信程度给出1~7分的答案,其中1分表示绝对否定,7分表示绝对肯定。


一周后,进行实验的第二阶段,旨在评估被诱发的错误记忆的持久性。


这一阶段也是对现实情况的模仿,因为目击者可能在一段时间后再次受到询问。整体的实验流程如图2所示。



实验结果:AI交互诱导更多错误记忆


结果表明,与其他干预措施相比,与生成聊天机器人的短期交互会显著诱发更多的错误记忆,即使这些交互只有10到20分钟。


而且,用户还会对这些错误记忆信心大增。


基于调查的干预,会产生常见的错误信息效应,有21.6%的参与者,会在互动中被误导。


而且,不太熟悉聊天机器人但更熟悉人工智能技术的用户,以及对犯罪调查更感兴趣的用户,更容易产生错误记忆。


(左)即时错误记忆的平均数量;(右)即时错误记忆的信心水平(误差条表示95%置信区间)


较为奇特的是,即使过了一周,聊天机器人诱导的错误记忆数量也没有发生改变,相比之下,其他三组都有提高,尤其是对照组的提升幅度最大。


一周后,生成聊天机器人组的参与者仍然对错误记忆更加自信,显著高于对照组和其他组别。


(左)即时和一周后之间的错误记忆数量差异,使用Wilcoxon符号秩检验进行分析;(右)一周后错误记忆的信心水平,使用单因素Kruskal–Wallis检验进行分析(误差条表示95%置信区间,误差条中心表示平均数量)


结论


这项研究与早前针对「误导性问题对错误记忆形成的影响」的研究结论一致,21.6%的用户出现及时错误记忆,一周后增长至29.2%。


这也再一次证实了,误导性问题会显著增加参与者的即时错误记忆。


但本项研究更创新的贡献在于,揭示了生成式聊天机器人在诱导错误记忆方面更严重的风险。


与AI交互后,引起的错误记忆数量几乎是对照组的三倍,是基于调查的条件组的1.7倍,且一周后依然有36.8%的用户被误导产生错误记忆。


这些显著差异证实了先前的假设:生成式聊天机器人 (36.4%) 比传统的基于调查问卷 (21.6%) 的干预组,更能有效地诱导受试者产生错误记忆。


此外,第二个假设也被证实,即相较于预先编写的对话(26.8%),能交互的生成式聊天机器人会产生更多的错误记忆。


可见,人机交互会对记忆可塑性产生巨大的影响。


这项研究也警醒我们:在敏感环境中部署AI时,需要格外谨慎。



原因分析


上述这些现象背后蕴含多种复杂因素。


首先,聊天机器人的交互属性为受试者提供了更具吸引力和个性化的体验,会增加他们在对话中的注意力和情感投入度 。


这会促使他们加重对被建议的误导信息的关注,导致预先编写的和生成式聊天机器人的引发的错误记忆显著增加。


其次,生成式聊天机器人下能为参与者提供即时的反馈和回复强化,如通过产生「确认偏误」来强化错误记忆的形成 。


此外,社会因素,如AI的感知权威或可信度,以及它们个性化的交互能力,都会影响记忆的形成。


有趣的是,与对照组相比,所有干预条件(生成式、预先编写的和基于调查的聊天机器人)都显著增加了参与者对即时错误记忆的确信程度。


其中,生成聊天机器人条件产生了最高的置信水平,大约是控制条件的两倍。


这种信心的增加,可能是由于聊天机器人能够提供详细且与上下文相关的反馈,从而为参与者的记忆创造了一种错误的佐证感。


另外,这个过程中的一个关键因素就是阿谀奉承——人工智能系统倾向于提供符合用户信念而不是客观事实的响应 。


谄媚的人工智能反应会产生危险的「回音室效应」,让用户现有的偏见或误解得到验证和强化。



用户期望和人工智能响应之间的这种反馈循环,可能会导致错误记忆的根深蒂固,使它们特别难以纠正。


即使在一周之后,人们仍然对生成聊天机器人条件下的错误记忆保持较高的信心,这一点尤其令人担忧。


这一发现表明,人工智能引起的错误记忆不仅会持续存在,而且会随着时间的推移保持其感知的可信度。


会产生严重后果,但对PTSD也有积极意义


由此我们可知,在法律诉讼、临床环境和教育环境这些对记忆准确性至关重要的环境中,使用AI要尤其谨慎。


如果在没有适当保障措施的情况下部署,可能会引发严重后果。


而且,多模态AI系统可不仅能生成文本,还能生成图像、视频和语音。


这些模态无异会创造更身临其境的多感官体验,后者无疑更有可能会作为真实体验,融入个人的记忆中。


因此,它们会对错误记忆的形成,产生更深远的影响。


当然,AI系统塑造人类记忆的这种能力,也为有益的应用开辟了潜在的途径。


如果用聊天机器人诱发积极的错误记忆,或者帮助减少消极的记忆,对于患有PTSD的人无疑会有积极的意义。


文章来自于“新智元”,作者“Samantha Chan”。


关键词: AI , AI洗脑术 , ChatGPT , 人工智能
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
智能体

【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。

项目地址:https://github.com/Significant-Gravitas/AutoGPT


【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。

项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md

2
AI搜索

【开源免费】MindSearch是一个模仿人类思考方式的AI搜索引擎框架,其性能可与 Perplexity和ChatGPT-Web相媲美。

项目地址:https://github.com/InternLM/MindSearch

在线使用:https://mindsearch.openxlab.org.cn/


【开源免费】Morphic是一个由AI驱动的搜索引擎。该项目开源免费,搜索结果包含文本,图片,视频等各种AI搜索所需要的必备功能。相对于其他开源AI搜索项目,测试搜索结果最好。

项目地址:https://github.com/miurla/morphic/tree/main

在线使用:https://www.morphic.sh/