ChatGPT 人工智能 GPT4 伦理 生成式 医疗 监管 安全 机器学习 深度学习 神经网络 计算机视觉 强化学习 模型 算法 应用 开发 研究 工具 平台 框架 数据集 训练 部署 安全 合规 培训 投资 LLM,llm AI,ai,Ai 大模型 大语言模型 制图 生图 绘图 文生图 文生视频 生成式AI AGI 世界模型 sora chatGPT,chatgpt,ChatGpt claude openai Llama deepseek midjourney 红熊猫模型 Red panda,panda Stable Diffusion,StableDiffusion,stable DALL- E 3 DALL E DALL Flux,flux 扩散模型 混元大模型 文心一言 通义千问 可灵 Pika PixelDance 豆包 月之暗面 零一万物 阶跃星辰 搜索增强 MiniMax Talkie Agent prompt fastai LangChain TTS 微调 提示词 知识库 智能体
# 热门搜索 #
搜索
Nature:AI也许可以拥有常识,但不是现在
2437点击    2024-11-14 10:30

LLM未实现机器常识,挑战常识推理。


自从2022年ChatGPT横空出世以来,LLM进入了一日千里、突飞猛进的发展阶段。

 

一些专家和研究人员推测,这些模型的问世,代表着我们向「通用人工智能」(AGI)的实现迈出了决定性的一步,从而完成了人工智能 (AI) 研究70年来的探索。 


这一历程中的一个重要里程碑之一,就是机器能够展现出「常识」。 


对人类来说,「常识」是关于人和日常生活的「显而易见的事情」。比如,我们可以从经验中知道,玻璃是易碎的,或者给吃素的朋友端上来一盘肉是不礼貌的。 


然而,在「常识」这一点上,即使是当今最先进、最强大的LLM也常常达不到要求。 


一名机器人艺术家在2022年英国Glastonbury音乐节上为表演者作画


LLM非常善于在涉及记忆的测试中取得高分,比如GPT-4最为人称道的成绩之一,就是可以通过美国的医生和律师执业考试,但依旧很容易被简单的谜题搞迷糊。 


如果你问ChatGPT「Riley很痛苦,之后她会感觉如何?」,它会从很多个选项中挑出「觉察」(aware)作为最佳答案,而不是对人类来说显而易见的「痛苦」(painful)。 


为了弥补这方面的缺陷,很多这类的选择题都被纳入到流行的基准测试中,用于用于衡量AI对常识的掌握。 


然而,这些问题很少能够真正反映现实世界,包括人类对物理定律的直觉理解,以及社交互动中的背景和语境。因此,要量化出LLM的「类人」程度仍然是一个尚未解决的问题。 


相比于AI,我们可以发现人类认知的一些不同之处。 


首先,人类善于处理不确定和模糊的情况,会满足于一个「令人满意但未必最佳」的答案,很少消耗大量的认知资源去执着于找到最佳的解决方案。 


其次,人类可以在「直觉推理」和「深思熟虑」的模式之间灵活切换,从而更好地应对小概率的突发情况。 


AI能否实现类似的认知能力?我们又如何如何确切地知道AI系统是否正在获得这种能力? 


这就不仅仅是AI或计算机科学的问题,还需要涉足发展心理学、认知哲学等学科,同时我们也需要对人类认知过程的生物基础有更深入的了解,才能设计更好的指标来评估LLM的表现。 


AI发展出常识,从何时开始?


机器常识的研究,还是要追溯到深度学习领域不得不提的一个时间点——1956年,新罕布什尔州达特茅斯的那场暑期研讨会。 


这场会议将当时顶尖的AI研究人员聚集在了一起,随后就诞生了基于逻辑的符号框架,使用字母或逻辑运算符来描述对象和概念之间的关系,用于构建有关时间、事件和物理世界的常识知识。 


例如,一系列「如果发生……,那么就会发生……」的语句可以被手动编程到机器中,用于教会一个常识性事实,比如不受支持力的物体会因为重力而下落。 


这类研究确立了机器常识的愿景,即构建能够像人类一样有效地从经验中学习的计算机程序。 


从技术角度定义,这个目标就是制造一台机器,在给定一组规则的情况下,「根据已知内容和信息,自行推断出范围足够广泛的直接结果」 。 


在加州举行的机器人挑战赛中,一个人形机器人向后摔倒 


因此,机器常识不仅限于有效学习,还包括自我反思和抽象等能力。 


从本质上讲,常识需要事实知识,也需要利用知识进行推理的能力。仅仅是记住大量事实是不够的,从现有信息中推断出新信息同样重要,这样才能在新的或不确定的情况下做出决策。 


20世纪80年代时,研究人员开始进行早期尝试,希望赋予机器以常识和决策能力,主要的手段是创建结构化的知识数据库,例如CYC、ConceptNet等项目。 


CYC这个名字的灵感来源于「百科全书」(encyclopedia),不仅包含了事物间的关系,还尝试使用关系符号来整合上下文相关的知识。 


因此,凭借CYC,机器能够区分事实知识(例如「美国第一任总统是乔治·华盛顿」)和常识知识(例如「椅子是用来坐的」)。 


ConceptNet项目有类似的原理,同样是将关系逻辑映射到一个由三元词组构成的庞大网络(例如「苹果」—「用来」—「吃」)。 


然而,无论是CYC,还是ConceptNet,都不具备推理能力。

 

常识推理的挑战性在于模糊性,因为在提供更多信息后,情况或问题就会变得很难确定。 


比如,想要回答「Lina和Michael正在节食,他们来做客时我们要准备蛋糕吗?」这个问题,如果添加了另一个事实「他们有cheat days」,答案就会变得相对复杂且难以抉择。 


基于符号和规则的逻辑无法处理这种模糊性,甚至依靠概率生成下一个token的LLM也无济于事,因为引入关于「cheat days」的额外信息不仅会降低确定性,还会完全改变语境。 


AI系统如何应对这种未见的、不确定的情况,将直接决定机器常识进化的速度,我们要做的,就是开发出更好的评估方法来跟踪相关进展,但「衡量常识」这个任务并没有看起来这么容易。 


LLM有常识吗?这很难评


目前评估AI系统常识推理能力的80多项著名测试中,至少75%是多项选择测验。然而,从统计的角度来看,这样的测验最多也只能给出模棱两可的结果。 


向LLM提出一个相关领域的问题,并不能揭示模型是否拥有更广泛的事实知识,因为LLM在响应特定查询时,并不会以统计学上有意义的方式从知识库中进行采样。 


比如,即使向LLM提出两个非常相似的问题,也可能会得到截然不同的答案。 


对于不涉及多项选择题的测试,比如为图像生成合适标题,也很难完全探测到模型的多步骤和常识性推理能力。 


不涉及多项选择测验的测试(例如,为图像生成适当的图像标题)不会完全探测模型显示灵活、多步骤、常识性推理的能力。 


因此, 机器常识相关的测试方案和方法仍需要发展,从而更清楚地区分「知识」和「推理」。 


有一种方法可以用于改进当前测试,就是要求AI解释给出当前答案的理由。例如,一杯咖啡放在室外会变凉,这是常识,但其中的推理过程涉及热传递、热平衡等物理概念。 



尽管LLM可能会生成正确的答案(「因为热量逸散到周围的空气中」),但基于逻辑的响应将需要逐步的推理过程来解释原因。 


如果LLM能够使用CYC项目开创的那种符号语言来复现出正确的原因揭示,我们就更有理由认为,模型不仅仅是通过参考训练语料来查找答案,而是确实发展出了常识推理能力。 


另一类开放式测试,就是考察LLM的计划或战略规划能力。 


想象一个简单的游戏:能量令牌随机分布在棋盘上,玩家需要在棋盘上移动20次,收集尽可能多的能量并将其放到指定的地方。 


在这类游戏中,人类不一定能找到最佳解决方案,但常识推理足以支持我们拿到合理的分数。那LLM呢? 


研究人员进行测试后发现,模型的表现远远低于人类。 


从LLM的行为来看,它似乎理解了游戏规则:它可以棋盘上移动,有时也能找到能量令牌并收集起来,但会犯各种看似愚蠢的错误,比如将能量令牌丢在错误的位置。 


鉴于LLM会犯这种有常识的人都不会犯的错误,因此我们很难期待这种模型在解决更混乱的现实规划问题时,能够有更出色的表现。 


下一步怎么走


为了系统地奠定机器常识的基础,可以考虑采取以下步骤: 


「把盘子做大」


研究人员需要超越单纯的AI或计算机科学领域的经验,涉足认知科学、哲学和心理学等学科,找出关于人类如何学习、如何应用常识的关键原理。 


这些原则应该能够指导我们,创建能够进行类人推理的AI系统。

 

拥抱理论


与此同时,研究人员需要设计全面的、理论驱动的基准测试,反映广泛的常识推理技能,例如理解物理特性、社交互动和因果关系。 


这些基准测试的目标,必须是量化AI系统跨领域概括常识知识的能力,而不是专注于一组狭窄的任务 。 


超越语言的思考


夸大LLM能力的风险之一就是夸大了语言的重要性,这会让我们与另一个重要愿景脱节——构建能在混乱现实环境中感知、导航的具身系统。 


DeepMind联合创始人Mustafa Suleyman就认为,实现「有能力」的AI(capable)可能是比AGI更切实可行的里程碑。 


至少在人类基本水平上,如果要构建具有物理能力的人工智能,具体化的机器常识是十分必要的。然而,目前的AI似乎仍处于获取幼儿水平身体智力的早期阶段。 


令人欣喜的是,研究人员开始在以上所有方面取得了进展,但仍有很长的路要走。

 

随着人工智能系统,尤其是LLM成为各种应用的主要内容,理解人类推理的能力将在医疗保健、法律决策、客服和自动驾驶等领域产生更可靠和值得信赖的结果。 


例如,具有社交常识的客服机器人将能够推断出用户的沮丧情绪,即使没有明确的表达出来。 


从长远来看,也许机器常识领域的最大贡献,将是让人类更深入地了解自己。 


参考资料: 


https://www.nature.com/articles/d41586-024-03262-z 


文章来自于“新智元”,作者“新智元”。


关键词: AI , 模型训练 , LLM , 人工智能
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
知识库

【开源免费】FASTGPT是基于LLM的知识库开源项目,提供开箱即用的数据处理、模型调用等能力。整体功能和“Dify”“RAGFlow”项目类似。很多接入微信,飞书的AI项目都基于该项目二次开发。

项目地址:https://github.com/labring/FastGPT