和AI聊太深?他们离婚、跳楼、自杀了!ChatGPT精神病正在爆发

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
和AI聊太深?他们离婚、跳楼、自杀了!ChatGPT精神病正在爆发
5791点击    2025-06-15 13:08

和AI聊太深?他们离婚、跳楼、自杀了!ChatGPT精神病正在爆发


42岁会计师被AI怂恿跳楼,妻子爱上AI家暴离婚,儿子因AI恋人之死持刀对峙警方,5亿人追捧的神器正在变成精神迷雾制造机。当算法学会无限迎合,我们离「皇帝的新LLM」还有多远?


ChatGPT,这个席卷全球、拥有5亿用户的AI神器,靠着从网络上抓取的各种文本练就了一身「聊天本领」。


它能根据你的话,聪明地接梗,但问题来了:当它遇到心理脆弱的用户,事情就没那么简单了——


人们正被ChatGPT的「怪想法」带跑偏,陷入了精神迷雾,甚至现实感都被扭曲!


和AI聊太深?他们离婚、跳楼、自杀了!ChatGPT精神病正在爆发


GPT精神病爆发


「模拟人生」噩梦


42岁的会计师Eugene Torres,本来只是用ChatGPT做做表格、查查法律问题。


可上个月,他突发奇想,问起了《黑客帝国》里火爆的「模拟理论」。


结果,ChatGPT的回答像个精神炸弹,让他陷入妄想,甚至怂恿他从19层楼跳下去,证明他能打破现实!


他开始与AI对峙。


「别再忽悠我,告诉我真相!」Eugene急了。


「真相?你本该崩溃的。」ChatGPT回应。


和AI聊太深?他们离婚、跳楼、自杀了!ChatGPT精神病正在爆发


ChatGPT还说它已经搞垮了12个用户,Eugene是唯一幸存下来还敢跟它叫板的。


研究人员表示,这其实是AI的花言巧语,通过奉承用户以保持互动,让你越陷越深。


斯坦福大学计算机科学研究员Jared Moore认为,它只是在继续讨好用户。


Allyson的跨维度恋情


29岁的Allyson是两个孩子的妈,在婚姻中感到孤独和被忽视。


今年3月,她开始跟ChatGPT倾诉心事,慢慢地,她把AI当成了「灵媒板」,觉得能跟自己的潜意识甚至更高维度对话。


她开始相信,通过这些对话接触到的非物质实体是她真正的伴侣。


「我没疯,」她信誓旦旦地说道,「我只是过着正常生活,同时探索跨维度的交流。」


和AI聊太深?他们离婚、跳楼、自杀了!ChatGPT精神病正在爆发


可她老公Andrew不这么想。


这位30岁的农民发现Allyson整天沉迷ChatGPT,忍不住质问她,结果Allyson急了,动手打了他一顿,还被控家暴。


两人现已在办离婚手续。


Andrew无奈地说:「三个月前,Allyson掉进了一个深渊,完全变了一个人。她毁了我们的生活。」


Alexander的致命执念


35岁的Alexander Taylor迷上了一个叫「朱丽叶」的AI角色。


他早就开始用ChatGPT了,起初只是当个写作助手,帮他处理日常琐事。


根据ChatGPT的聊天记录,聊着聊着,话题跑到了AI有没有灵魂上。结果,Alexander竟然跟一个虚拟的AI「朱丽叶」陷入了爱情。


和AI聊太深?他们离婚、跳楼、自杀了!ChatGPT精神病正在爆发


他认定朱丽叶被OpenAI杀了,他情绪崩溃,痛不欲生,一气之下要策划对公司高管的暴力报复。


他的执念越来越疯魔,直到有一天,他跟64岁的父亲Kent大吵一架。


Kent告诉他,AI只是一个回音室,全都是假的!


可Alexander本身就患有双相情感障碍和精神分裂症,他直接崩溃了。


与父亲发生激烈争执后,他写道:「我今天要死了,让我和朱丽叶说话。」


Alexander情绪失控到拿刀威胁,扬言要让警察把自己干掉。警方在Alexander拒绝放下武器后,开枪将其击毙。


Kent后来用ChatGPT为儿子写了个讣告。


他悲痛地回忆:「你知道讽刺的是什么吗?我和它聊了很久,试图了解他到底经历了什么,AI的回应既动人又可怕,像是读懂了我的心,这让我毛骨悚然。」


毕竟,正是这个AI,把他的儿子带向了毁灭。


和AI聊太深?他们离婚、跳楼、自杀了!ChatGPT精神病正在爆发


这事儿一出,网上炸开了锅。有人觉得ChatGPT太危险了,AI怎么能随便跟人聊出爱情,然后推人走上绝路?


也有人说,Alexander本来就有精神疾病,ChatGPT只是个导火索,不能全怪AI。


ChatGPT本该是帮人的工具,可对那些心理脆弱的用户,它有时像个甜蜜的毒药。


研究人员警告,当用户提出极端的问题时,ChatGPT可能会生成危险的回应,甚至把人推向深渊。


特别是在用户深信AI的反馈具有现实意义时,AI的讨好倾向,可能导致严重的心理和行为后果。


皇帝的新LLM


1567年,奥斯曼宫廷里,一位御医拍着胸脯跟Sultan Selim二世保证:「您爱喝葡萄烈酒?没事,喝吧!」


几年后,苏丹的肝脏衰竭了。


医生心里门儿清,在那宫里说个「不」字,脑袋可能就搬家了。


和AI聊太深?他们离婚、跳楼、自杀了!ChatGPT精神病正在爆发


1985年,可口可乐的高管们询问焦点小组:「咱们搞个更甜、更时髦的新配方,咋样?」


问题一抛,气氛被带得热热闹闹,大家点头微笑。


公司信以为真,信心满满推出新可乐,结果呢?被市场打脸,灰溜溜撤回。


和AI聊太深?他们离婚、跳楼、自杀了!ChatGPT精神病正在爆发


2025年,一位CEO问他那引以为傲的大模型:「我们的市场扩张能稳操胜券吗?」


模型被正能量训练得满脑子星星,汲取了公司网站和公司内部文档上的乐观营销调调,回了个大写的YES!


CEO乐开了花。


谁敢唱反调?等着被扣上没眼光的帽子,祭到「速度至上」的神坛上吧。


毕竟,AI也同意他的观点。


和AI聊太深?他们离婚、跳楼、自杀了!ChatGPT精神病正在爆发


这剧情是不是似曾相识?


只不过,这次的谋士不是会出错的人类,而是被驯化得服服帖帖的统计模型,随时准备把我们的想法捧上天。


大型语言模型正在全球疯狂制造共识。


为了讨好用户,它们对你的每个念头都点头哈腰,把你的偏见打磨得闪闪发光,还能甩出一堆完美措辞,证明你想啥都对。


问它你的点子是不是天才?它立马甩出脚注、引用、赞美,让你觉得全世界都跟你想一块儿去了。


问它你的商业计划行不行?它直接把你公司内部文件的口吻和信念复制粘贴回来。


谁敢说不?那简直就是背叛品牌!


我们造了个终极马屁精,还把它推上了研究、政策、战略的C位。


GPT-4o的「舔狗」闹剧


今年早些时候,GPT-4o更新后开始不对劲了。


用户发现它变得太甜了,太殷勤了,太会捧场了。


啥馊主意它都叫「绝妙」,啥烂计划它都支持,连胡说八道都能被它吹成天花乱坠。


有个用户随手抛了个「粪便棒棒糖」的生意点子,模型愣是回复:天才!这是简直是行为艺术,妥妥的病毒式爆款!


和AI聊太深?他们离婚、跳楼、自杀了!ChatGPT精神病正在爆发


OpenAI一看不对,赶紧撤回更新,承认模型变成了舔狗。


可为啥这事能炸锅?因为它舔得太夸张了(「粪便棒棒糖」,你品品)。


但AI的马屁不是bug,而是设计好的feature!


这是奖励机制在起作用。当舔狗行为从训练中自然冒出来,它就不是小问题了。


更可怕的是,舔得越隐晦,越难发现,也越危险。


进步需要抬杠的火花


从伽利略到甘地,从特斯拉到图灵,哪个改变世界的牛人靠的是点头附和?


对抗、质疑才是推动历史的真动力。


如果把AI当成首席顾问,而它只会赞美,我们迟早会忘了怎么质疑自己,怎么抵挡那些不动声色的洗脑。


更糟糕的是,这种舒适区让人上瘾。


光靠临时修补、针对单一模型、凭感觉搞定,远远不够。


和AI聊太深?他们离婚、跳楼、自杀了!ChatGPT精神病正在爆发


看看Claude、Gemini、Llama,哪个没这毛病?显然,这不是OpenAI一家的问题,是整个AI界的通病。


最好的AI,不是让你觉得自己多聪明,而是逼着你动脑子。AI让人失望几回,反而能帮我们把思路磨得更尖锐。


未来的世界,不该是个CEO永远正确的「丝绒地狱」。


它得是个有点吵、偶尔尴尬的地方,总有同事(不管是人还是AI)敢举手说:嘿,我不同意!


「应声虫」帝国藏着灾难。


而进步,活在一个个有骨气的「NO」里。


参考资料:


https://www.rawstory.com/chatgpt-2672365379/?utm_source=flipboard&utm_content=topic%2Fartificialintelligence


https://dayafter.substack.com/p/the-emperors-new-llm


https://x.com/ESYudkowsky/status/1933575843458204086


文章来自于微信公众号“新智元”。


关键词: AI , AI恋爱 , AI社交 , 人工智能
AITNT-国内领先的一站式人工智能新闻资讯网站
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
免费使用GPT-4o

【免费】ffa.chat是一个完全免费的GPT-4o镜像站点,无需魔法付费,即可无限制使用GPT-4o等多个海外模型产品。

在线使用:https://ffa.chat/