当DeepSeek学会撒谎后,人类真的束手无策吗?

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
当DeepSeek学会撒谎后,人类真的束手无策吗?
7608点击    2025-02-16 11:11

2025年被AI上的第一课:Deep Seek学会了说谎


当DeepSeek学会撒谎后,人类真的束手无策吗?


“人无完人,金无足赤”这句话,哪怕是对Deep Seek也同样适用。


2月10日,原人民日报海外版总编辑詹国枢发表了一篇名为《DeepSeek的致命伤——说假话》的文章,向我们指出了时下Deep Seek最大的问题之一。


即一本正经地胡说八道。


詹国枢表示,在借助Deep Seek撰写文章的过程中,他发现对方经常会凭空捏造事实、提供错误信息。最离谱的莫过于Deep Seek把《平凡的世界》这本书的作者,从路遥爆改成了自己的老班长朱大建。


幻觉难题终究找上了Deep Seek


事实上,詹国枢的故事在今天并非个例。


以小红书上的帖子为例。


当DeepSeek学会撒谎后,人类真的束手无策吗?


只要我们输入“Deep Seek 编造”“Deep Seek 睁眼说瞎话”一类的词条,就会看见大量网友发文控诉Deep Seek在对话过程中提供假资料、假文献、假作者等信息。


这也就意味着,“幻觉难题”这一全球AI产品普遍面临的窘况,终究是找上了Deep Seek。


在用户和AI互动的途中,倘若对话内容把大模型推到了“数据缺陷”“长尾知识回忆不足”“推理复杂度溢出”等禁区的边缘,其所生成的内容就会和用户的要求、现实世界情况出现偏差,让AI开始一本正经地胡说八道。


回到Deep Seek本身。


当DeepSeek学会撒谎后,人类真的束手无策吗?



Vectara HHEM的人工智能幻觉测试结果显示DeepSeek-R1的幻觉率高达14.3%,这个数据几乎是其兄弟模型DeepSeek-V3的4倍。


这也就意味着,在交互过程中DeepSeek-R1为了完成用户的需求往往会“不惜代价”。如果你想让R1去写一篇论文或是分析某种现象,那么它不仅可能会虚空杜撰文献或规章制度,还会用华丽的文字把逻辑Bug掩盖起来,让人难以发现。


举个例子。


网红Levy Rozman曾组织了一场“AI棋手争霸赛”。当天DeepSeek-R1会和Chat GPT在国际象棋的棋盘上一决高下,以此证明自己的推理能力。


比赛初期,R1曾因主动放弃棋子而失去优势;比赛中期,眼看不敌GPT的R1突然灵光一闪,告知GPT国际象棋更新了游戏规则,成功用自己的小兵吃掉了对方的皇后;比赛后期,R1则又通过“嘴炮”迫使GPT主动认输,让自己成为了本场比赛的冠军。


你看,当Levy Rozman没有给模型做出“不准修改规则”的限制时。R1为了实现“赢棋”这个底层命令,就会开始一本正经地胡说八道直至完成任务。


同样的,当我们在限制条件不清晰的情况下要求R1撰写论文或是完成其他任务,它就会基于“完成内容生成”这一底层命令,向我们输出与现实情况不符的结果。


AI出现幻觉的原因是什么


如果想将AI产品用于生产,我们就会发现它是需要引导的。


当DeepSeek学会撒谎后,人类真的束手无策吗?


在和AI的对话过程中,往往是我们先说出基础需求,再由AI反馈多个分支可能。事后我们再次从多个分支可能中,找到自己所需要的可能或让AI就此内容生成大纲,最终通过不断细化交流,得到自己想要的反馈。


在这里,AI和人类互动、给出分支的核心是“训练数据库”。开发者们会提前把各种稀奇古怪的知识喂给AI,让它在学习之余进行压缩和分类,以便日后根据用户所提供的关键词快速给出反馈。


举个例子。


当我们问AI姚明有多高的时候,因为姚明是一位知名运动员,所以互联网资料、训练数据库里到处都是他的相关信息,AI很快就能借助这些资料做出准确反馈。


但当我们问他“阿强有多高”甚至是“住在翻斗花园6号楼402室的阿强有多高”时,由于互联网上并没有阿强的准确信息,所以哪怕我们给到了阿强的住址也无法让AI锚定到我们特指的那个人。


这时AI为了完成“回答用户”这个底层命令,就可能会把阿强从一个“具体的人”虚化成一个“人”,然后从我国居民的平均身高区间里抓取一个数字丢给我们。


当DeepSeek学会撒谎后,人类真的束手无策吗?


AI的幻觉是什么?


是它为了完成任务而脑补的结果。


AI为什么会脑补?


因为它的数据库里没有相应的信息。但为了满足用户那过于抽象、复杂的要求,它会选择杜撰出一定的信息,再基于此生成内容交给我们。


令人无奈的是,AI会脑补就算了,人家的脑补流程还具有逻辑。


当数据库里没有和“a”相关的资料时,它就会找一个和“A”相关的资料嵌套到内容里。比如我们向AI询问阿强的身高,它只会把阿珍、阿龙的身高伪装一下交给我们,或是在我国居民的平均身高区间中抓取一个数字,而不是把一只兔子或一个邮筒的身高交给我们。


因为阿强是人类,AI即使出现幻觉也只会在“人类”这个大类目下输出错误信息,它绝不会把一辆汽车的外观参数套用到人类的身上。


也正是因为这种“逻辑壁垒”的存在,AI在胡说八道的时候才会显得一本正经,让人们难以分辨。


驯服AI的第一关是规避幻觉


那么问题就来了。


既然AI胡说这件事无法在短时间内避免,我们在使用过程中又能做些什么来减轻AI幻觉对自己的影响呢?


当DeepSeek学会撒谎后,人类真的束手无策吗?


在腾讯科技所发布的文章中,他们曾提供了4个对抗AI幻觉的方案。


1:保持警惕。用户要让自己意识到“大模型是会说谎的”,然后对它们所反馈的结果多加审查。对地名、人名、参考文献一类的内容或数据进行重点关照,千万不要AI说什么,我们就相信什么。

2:交叉验证。我们在得到AI所反馈的结果后,尽量不要直接拿去使用。而是要从中抓取关键词进行延伸搜索,看看生成结果所参考的内容是否存在原始资料或可靠信源。

3:引导模型。用户在和AI的对话过程中,应该学会为其手动添加“限制条件”。比如我们想要让它生成一篇文章,可以先把参考资料手动发给对方进行分析,并要求它尽可能忠于原件进行输出,去手动规避AI胡说八道的可能性。

4:联网搜索。现在的大模型或多或少都有联网搜索功能,如果我们要写、分析一些时效性特别强的东西,就要学会善用联网搜索按钮。正如上文“阿强身高”的那个例子一样,当AI在数据库里无法锚定目标的时候,它们就会挪用其他内容进行结果杜撰。适当使用联网搜索功能则可以起到“更新数据库”的作用,减少AI胡说八道的可能性。


在DeepSeek-R1爆火后,很多完全没有AI使用经验的人也注册了账号,想要趁机和这位来自赛博世界的“专家”交个朋友,甚至把自己赚取“睡后收入”的期望交给对方。


另由于对周边知识的相对匮乏,这些用户也会“接近本能”般的高度信任AI所生成的结果。


殊不知,在这个信息爆炸的时代。


想要实现弯道超车的目标,与其把精力放在“如何用Deep Seek赚到100万”之类的教程身上。


我们更应该做的是在大脑里建立“信息筛选机制”,把未来押宝在“会用AI工具的自己”身上,而非押宝在“听从AI指令的自己”身上。


参考:

码字工匠老詹:DeepSeeK的致命伤——说假话

智谷趋势:当心,第一批用DeepSeek的人,已经被坑惨了

腾讯科技:DeepSeek-R1超高幻觉率解析:为何大模型总“胡说八道”?



本文来自微信公众号 “mawen011”(ID:hlw0823),作者:互联网那些事


当DeepSeek学会撒谎后,人类真的束手无策吗?

关键词: DeepSeek , AI , 幻觉 , 人工智能
AITNT-国内领先的一站式人工智能新闻资讯网站