大语言模型(LLMs)作为由复杂算法和海量数据驱动的产物,会不会“无意中”学会了某些类似人类进化出来的行为模式?这听起来或许有些大胆,但背后的推理其实并不难理解:
首先,人类的心理、认知及行为不是随便“凑”出来的。它们是几百万年自然选择的结果,长期受到生存、繁衍、合作、冲突等各种“进化压力”的雕琢与塑造。正因如此,人类心智中存在一组被称为“基本社会动机”(Fundamental Social Motives, FSMs)的内在驱动力,比如自我保护、避免疾病、寻求社交联结、争取地位、择偶、维持伴侣关系,以及照顾亲属等基础的、进化形成的并嵌入人类心智的社会性动机。这些动机几乎渗透在人类语言、故事、文化、甚至日常对话中。
接着,如果我们意识到:大语言模型的训练数据,正是由人类写下的这些文字、故事和对话组成的,那么问题就来了:在反复学习这些深受进化影响的人类语言后,LLMs是否在某种意义上“模仿”或“内化”了这些社会动机?
虽然LLMs并不是生物体,没有情感,也不会繁衍后代,但它们确实能在训练过程中学会语言中的深层关联模式与统计规律。它们不理解人类行为的“动机”,但在足够多的文本中,它们可以逐渐识别出“在这种情境下,人类倾向于这样说/这样做”的模式。换句话说:LLMs并不是在生物意义上“进化”,但它们可能从人类进化留下的语言痕迹中“学会”了某些行为的模拟方式。这种学习更像是“语言中的进化记忆”在模型中以某种方式“涌现”了出来。
▷Matt Chinworth
硅基人(Homo silicus),或称“网络智人”(cyber-homosapiens),正是在这种新兴的“机器心理学”(machine psychology,指运用心理学方法研究LLMs中涌现的能力与行为的领域)框架下提出的概念。它把大语言模型(在此概念性探索中以ChatGPT为主要例证)当作一种“虚拟的类人个体”,用来探索这些模型在没有特别针对某个任务训练的情况下,能否展现出类似人类的心理动机或行为倾向。也就是说,我们能否把LLMs当作心理实验的“被试”,让它在给定的社会情境中展现出类似人类的反应?这类探索通常依赖模型的“零样本能力”(zero-shot capabilities),在没有专门学过某个具体任务的情况下,通过对广泛语料的理解来“临场发挥”。
在方法论层面,我们可以设想一个从依赖明确指令到激活隐性知识的演进过程。在最开始,我们可以尝试检验LLM是否能通过“显性知识激活”来模拟人类反应。举个例子,你可以告诉它:“现在你是一名进化心理学家,请基于XX 理论和YY统计方法来预测某种人类行为”,或者干脆用“代码解释器”让它对一批调查数据进行分析与预测。
然而,如果这种依赖明确指令和显性知识的方式只能在少数变量上取得不错的预测效果,却在整体上无法展现出人类行为的复杂与丰富,那么就说明“单靠显性指令其实不够”。这背后的的潜在原因可能包括:模型对具体情境的理解还不够深;它不知道该从自己庞大的知识库里选什么理论、怎么用;又或者,本来就没有哪个单一理论能全面捕捉人类心理的多样性。
为了克服这些局限,我们可以尝试一种更精细的方法:通过“自我报告式提示”(self-report style prompts)激活潜在理解。我们可以给LLM提供丰富且个性化的情境信息,比如,提示可以详细描述人口统计学数据(年龄、性别、文化背景、婚恋状况、社会经济地位等),再加上模型对一份心理学工具(如基本社会动机量表)大部分条目的回答。在这个量表里,每个条目都用来衡量人类在进化中形成的一些社会动机,比如自我保护、疾病规避、社交需求等等(Neel, Kenrick, White, & Neuberg, 2016; Pick et al., 2022)。
接下来,LLM的任务是对剩余未答的那些条目做出回答。关键在于,这一生成过程不是靠明确的规则,而是理想地依赖于LLM的“隐性知识”(implicit knowledge)——也就是模型从其训练数据中吸收的对语言、情境、人类行为模式及社会动态的广阔、细致且往往是未明言的理解。通过让它针对不同的“背景配置”生成不同的回答,而不是一次性批量统一处理,我们希望可以模拟人类个体之间的多样性,让它看起来更像是许多个不同的人在填写问卷,而不是一个千篇一律的机器人。
在解释潜在研究结果时,一致性与预测能力可作为衡量模型隐性知识作用的指标。举个例子,如果不同版本的LLMs(如GPT-4与早期版本GPT-3.5)在生成的虚拟数据中都表现出较高的“内部一致性”(internal consistency),那么就很值得关注了。具体而言,如果一个更高级的模型(如GPT-4)在某些基本社会动机变量上所显示的一致性系数(克朗巴赫系数 α)不仅更高,甚至可能高于早期模型或人类参与者的数据,这便意味着它在这些动机领域内的答题反应相当连贯、稳定。
同样,在预测准确性方面,如果一个高级模型(如GPT-4)在所有或绝大多数基本社会动机变量上都与人类数据显示出显著的相关性,尤其是在某些进化上较为突出的动机(如疾病规避和自我保护)上,其预测精度尤为出众,而一个早期模型在某些变量上(例如,对于一个GPT-3.5数据集,其在亲属关怀-子女、配偶留存及配偶留存-分手担忧等变量上)显示出较弱或不显著的相关性,就可能说明最新一代的模型在预测人类基本社会动机时能力更强。
如果真的发现了这种模式,那就与先前一些初步研究观察到的情形相呼应(Argyle, Busby, Fulda, Gubler, Rytting, & Wingate, 2023; Aher, Arriaga, & Kalai, 2023) 。在那些研究中,它们也通过微调GPT模型中人口统计学细节的激活,增强了对政治态度和行为倾向的预测。综合来看,或许可以推断最新迭代版本的GPT(或其他LLM),确实拥有一种基于“隐性知识”的零样本能力,可以以相当高的稳定度与可靠度来建模并预测各种基本社会动机。
▷图源:Eduardo Gorghetto
要让LLM有效模拟不同人群,关键在于激发多样化且恰当的响应分布。这与“算法保真度”(algorithmic fidelity)概念息息相关。按照 Argyle等人的观点(2023),算法保真度指的是:模型内部表征的思想、态度、社会文化背景等复杂关系,能在多大程度上与现实世界的分布相吻合。
与一些认为LLM只反映了其训练文本的“平均值”或是一种“单一视角”的观点(Strachan et al., 2024; Chen et al., 2023; Horton, 2023)不同,算法保真度更强调模型文本并非源于单一的概括性概率分布,而是一个动态的、多重潜在分布彼此交互的结果。
因此,借助精心构建的、详细描绘不同人口统计学特征(例如,年龄、性别、国籍、报告的社会经济地位、为人父母状况、婚恋关系等),以及像基本社会动机量表这类工具所捕捉(Pick et al., 2022)的特征,我们可以尝试向LLM提供精心设计的结构化提示。这样一来,我们就有可能创造出一个能够策略性地改变模型输出概率的“硅基人”,使其展现出不同人群所特有的反应倾向。比方说,在输入了某些提示后,模型就会“切换”到更贴合某个特定文化背景或社会群体的思维模式,从而生成与他们的态度、观点和生活经验相呼应的输出(Argyle et al., 2023)。
如果这种方法真的行得通,且有足够证据支持,那么将极大地支持这样一个观点:LLMs其实已经透过对海量人类文本的深度学习,悄悄“织”出了一幅极其丰富的知识网络,把各种人口统计信息、常识、符号与社会背景的复杂联系都纳入进去——哪怕在训练文本里,它们从未被明确写出或系统阐述(Yildirim & Paul, 2023; Field, Blodgett, Waseem, & Tsvetkov, 2021; Hagendorff, 2023; Horton, 2023)。
这种对“没有明说却暗中吸收”的理解能力,正是LLM“隐性知识库”的代表。如果它还能模拟特定群体的行为或反应,那么在心理学的许多分支研究里,LLMs就能当作一种“模拟参与者”,为研究者打开新思路。比如,研究者可以先让模型扮演某类人群,进行初步假设的检验;或者,当研究课题涉及到敏感群体、难以或不宜直接招募真实受试者时,LLMs也许能提供一种有力的替代手段(Dillion, Tandon, Gu, & Gray, 2023; Horton, 2023)。
要想深入探究由LLM生成的“心理模拟”到底有多逼真,仅仅看它能不能模拟一些表面行为还不够。"网络分析"(network analysis)便提供了一套有价值的工具和一个独特的概念视角,它能帮我们挖掘这些模拟背后的“内部结构”究竟有多接近真实的人类心理体系。
在这个方法里,我们可以把每一个基本社会动机(FSM)或FSM量表里的具体条目当作网络中的节点(node),并把它们之间的统计关联(比如相关系数)当作边(edge)。边的粗细或数值则代表关联的强度。如果我们能够比较“由LLM生成的FSM数据”与“真实人类FSM数据”各自构建出来的网络,就能看出:LLM是否只是捕捉到了单独的孤立的动机,还是也把它们真实的人际关联关系和重要性等级融入进来;LLM对不同动机之间的关联是否能给出一个结构上近似真实人类的网络图景。
例如,如果在人类数据里,所有跟“社交需求”有关的条目彼此之间关联都很强,而且和其他动机也有紧密联系,那么我们就会看到一个“复杂而充满连结”的网络。如果某个高级LLM生成的数据也呈现出类似的复杂图景,而能力较弱的LLM则只能给出一个较为单薄、缺乏区分度的网络,那就说明前者更能“还原”真实的人类心理构造。它还可能突显出某些特定的连接(例如,在人类数据中可能存在并在某一高级模型中得到复制,但在另一模型中则未体现的某些动机间的负相关关系)是一个模型捕捉到而另一个模型未能捕捉到的。
网络分析还能计算各种中心性指数(centrality indices),用以评估一个节点在整个网络结构中的重要性或作用,例如“强度”(strength,一个节点连接的总和)、“接近度”(closeness,一个节点到达所有其他节点的难易程度)、“介数”(betweenness,一个节点位于其他节点之间最短路径上的频率)以及“预期影响”(expected influence,一个节点连接边权重的总和,同时考虑正向和负向连接)等度量。
如果从人类实际数据看,某些FSM条目往往拥有最高的中心性,说明它们在心理网络中尤为重要;而在LLM生成的数据中,那些条目也“名列前茅”,这就说明模型真的在模拟人类心理结构上有一手。反之,如果LLM的网络显示某些关键节点在中心性上与人类数据大相径庭,就表示它可能在这方面“走偏了”或无法捕捉到真实的重要连结。
为了更严格地检验“人类网络”和“LLM网络”到底有多接近,研究者可以运用网络比较测试(Network Comparison Tests, NCT)等统计方法(结合诸如带EBIC模型选择的glasso正则化等技术),来看看两张网络在整体结构或全局强度(所有连线加权和)上是否显著不同。例如,如果NCT的结果显示,某个GPT版本的网络和人类的网络在结构上存在显著差异,即便它们的整体连线强度可能接近,也说明这个模型只在表面上和人类“看起来像”,实则深层关联分布并不一致。这意味着,尽管LLM可能通过其隐性知识达成了一定的预测准确度,却并未真正构建出和人类一样精细而层次分明的心理网络。
从进化心理学的框架审视,算法保真度的概念,尤其在模拟人类亚群体方面,可以得到进一步拓展。由于进化压力无处不在、自然选择塑造了人类跨文化的行为模式(Buss, 1995),在日常写作和对话中,这些驱动生存和繁衍的动力也会不自觉地渗透进语言当中。于是,当 LLMs从海量文本中学习时,它们可能会抓住、归纳出各种受进化影响的人类心理和行为规律 (Pick et al., 2022),甚至超越具体的地域或文化群体。
如果未来的研究发现,在构建LLM的庞大训练数据里,诸如“基本社会动机”之类的进化因素确实发挥了显著作用,那么这就能说明:LLMs 对人类心理的“隐性理解”在很大程度上是由那些反映进化压力的文本所塑造的。既然进化压力影响几乎所有人类亚群体(比如大家都关心健康、繁衍、社交关系等),那么这些与进化高度相关的文本内容就更容易被纳入训练数据,进而帮LLMs获得更强的零样本预测能力,包括对各式各样的进化驱动行为与心理模式的预测。这也意味着,进化选择赋予了文本一个“统一底色”,在海量信息中增加了跨人群的共通性元素,从而让LLMs得以抓住更广泛的人性通则。
▷图源:Johan Thörnqvist
正如Huh, Cheung, Wang, & Isola (2024)所发现的,表征学习算法能够识别出在统计上模拟各种测量和投影的向量嵌入,这或许意味着LLMs能够具备某种类似人类的心理表征或对现实世界的抽象映射(Yildirim & Paul, 2023)。考虑到语言模型在越来越多的数据和更广泛的任务上进行训练,其一致性随规模而提高,这可能表明“硅基人”会逐渐呈现出一种与人类进化相似的模式,通过学习进化塑造的语言输出,逐步获得高水平的“心理解读”能力。逻辑上,如果人类进化赋予了我们特定的心理过程,那么设计用来模拟人类语言的LLMs多少也会运用到类似的进化逻辑去生成文本(Horton, 2023)。当然,这并不意味着它们在生物学上是真正“进化”了,但在统计与算法的层面上,它们或许会不知不觉间重演了我们人类在语言与思维中所经历的那条“进化脉络”。
当LLMs不仅能模拟外部语言和行为模式,还在一定程度上反映其内部结构和能力时(Miotto, Rossberg, & Kleinberg, 2022),我们就不得不问:它们是否在某种意义上“继承”了被模拟对象(即人类)的某些特质?“硅基人”这个概念意在说明,LLMs通过内部表征机制来处理并生成语言,而这些在训练过程中形成的内部机制,很可能正是对人类语言与行为模式的一种外在映射。如果未来研究证明这些机制的确有效,那么“硅基人”或许就不只是“看起来像人”,而真能体现出类似人类的动机或行为倾向。换言之,它的表现可能隐含了一种“模拟版的自然选择”:在海量训练数据中,愈能准确预测、拟合人类心理或社会规律的部分就会被“保留和强化”,从而让它更像我们人类。
如果未来研究证明这些机制的确有效,这似乎触及了人工智能的一个核心问题:预测越精准的模型,是不是就越能反映其所训练数据的“本质”?同样,模型在输出时的表现,是否可以被视为把训练数据中潜藏的属性或特征“内化”并显现出来?随之而来的另一个追问是:“硅基人”在生成输出和做出决策时,是否会像人类一样,被类似基本社会动机(FSMs)这类因素所驱动?(Horton, 2023; Yildirim & Paul, 2023; Buss, 1995)。
归根结底,“硅基人”能否在不同人口统计学亚群体之间,甚至在与进化意义深远的动机相关的情境中,都作出近似人类的细腻反应,似乎与它是否能充分激活并调用LLM“隐性知识库”中的丰富结构性内容息息相关。尽管当下的LLMs无疑展现出非凡且往往出人意料的涌现能力,但它们到底在多大程度上“真正理解”了人类心理的层次和进化结构?这种隐性知识的确切性质、深度、真实性及其潜在机制,依然是未来科学研究和理论探讨的一大焦点,也是一个让人倍感好奇与期待的前沿领域。
作者后记:根据上文对“硅基人”和人类参与者在基本社会动机方面的研究思路,我们初步实证研究发现大语言模型在模拟人类行为方面展现出还不错的能力(论文待发表)。探索性网络分析的结果也表明LLMs生成的“硅基人”数据在心理结构上与真实人类数据存在一定的相似性,尤其是在GPT-4模型中,其复杂性甚至能与人类数据相媲美,表明它能够捕捉到不同动机之间的深层关联,例如自我保护和疾病规避等关键动机。
此外,在预测准确性方面,GPT-4在所有或绝大多数基本社会动机变量上都与人类数据显示出显著的相关性(尽管不高,但排除了提前将问卷预训练的可能性),尤其是在疾病规避和自我保护等进化上较为突出的动机上,其预测精度尤为出众 。然而,当进一步采用更严格的“网络比较测试”(NCT)时,结果显示GPT-3.5和GPT-4生成的网络结构与人类网络结构之间存在显著差异,尽管GPT-3.5在整体强度上与人类网络相似 。
这意味着,虽然LLMs能够通过其庞大的训练数据学习并表面上模仿人类的语言和行为模式,甚至在某些方面展现出与人类心理动机相似的“涌现”能力, 但它们尚未完全掌握人类心理的内在结构和复杂关联 。换句话说,LLMs可能能够“看起来像人”,但在深层次的心理机制上,它们与真实的“人性”仍有差距 。随着LLMs的不断发展和完善,它们在理解和模拟人类心理方面的能力有望进一步提升,这将是未来“机器心理学”领域的一个重要研究方向 。
Aher, G. V., Arriaga, R. I., & Kalai, A. T. (2023). Using large language models to simulate multiple humans and replicate human subject studies. In International Conference on Machine Learning (pp. 337-371). PMLR.
Argyle, L. P., Busby, E. C., Fulda, N., Gubler, J. R., Rytting, C., & Wingate, D. (2023). Out of one, many: Using language models to simulate human samples. Political Analysis, 31(3), 337-351.
Buss, D. M. (1995). Evolutionary psychology: A new paradigm for psychological science. Psychological Inquiry, 6(1), 1-30.
Chen, Y., Liu, T. X., Shan, Y., & Zhong, S. (2023). The Emergence of Economic Rationality of GPT. arXiv preprint arXiv:2305.12763.
Conwell, C., Prince, J. S., Kay, K. N., Alvarez, G. A., & Konkle, T. (2022). What can 1.8 billion regressions tell us about the pressures shaping high-level visual representation in brains and machines?. BioRxiv, 2022-03.
Dillion, D., Tandon, N., Gu, Y., & Gray, K. (2023). Can AI language models replace human participants?. Trends in Cognitive Sciences.
Field, A., Blodgett, S. L., Waseem, Z., & Tsvetkov, Y. (2021). A Survey of Race, Racism, and Anti-Racism in NLP. arXiv:2106.11410v2.
Hagendorff, T. (2023). Machine psychology: Investigating emergent capabilities and behavior in large language models using psychological methods. arXiv preprint arXiv:2303.13988.
Horton, J. J. (2023). Large language models as simulated economic agents: What can we learn from homo silicus? (No. w31122). National Bureau of Economic Research.
Huh, M., Cheung, B., Wang, T., & Isola, P. (2024). The Platonic Representation Hypothesis. arXiv preprint arXiv:2405.07987.
Miotto, M., Rossberg, N., & Kleinberg, B. (2022). Who is GPT-3? An exploration of personality, values and demographics. In Proceedings of the Fifth Workshop on Natural Language Processing and Computational Social Science (NLP+CSS) (pp. 218-227). Association for Computational Linguistics.
Neel, R., Kenrick, D. T., White, A. E., & Neuberg, S. L. (2016). Individual differences in fundamental social motives. Journal of Personality and Social Psychology, 110(6), 887-906.
Pick, C. M., Ko, A., Kenrick, D. T., Wiezel, A., Wormley, A. S., Awad, E., ... & Varnum, M. E. (2022). Fundamental social motives measured across forty-two cultures in two waves. Scientific Data, 9(1), 499.
Strachan, J. W., Albergo, D., Borghini, G., Pansardi, O., Scaliti, E., Gupta, S., ... & Becchio, C. (2024). Testing theory of mind in large language models and humans. Nature Human Behaviour, 1-11.
Yildirim, I., & Paul, L. A. (2023). From task structures to world models: What do LLMs know?. Trends in Cognitive Sciences.
文章来自于“追问nextquestion”,作者“李泽伟、李哲洺、范存源”。
【开源免费】DeepBI是一款AI原生的数据分析平台。DeepBI充分利用大语言模型的能力来探索、查询、可视化和共享来自任何数据源的数据。用户可以使用DeepBI洞察数据并做出数据驱动的决策。
项目地址:https://github.com/DeepInsight-AI/DeepBI?tab=readme-ov-file
本地安装:https://www.deepbi.com/
【开源免费】airda(Air Data Agent)是面向数据分析的AI智能体,能够理解数据开发和数据分析需求、根据用户需要让数据可视化。
项目地址:https://github.com/hitsz-ids/airda
【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。
项目地址:https://github.com/Significant-Gravitas/AutoGPT
【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。
项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md
【开源免费】FASTGPT是基于LLM的知识库开源项目,提供开箱即用的数据处理、模型调用等能力。整体功能和“Dify”“RAGFlow”项目类似。很多接入微信,飞书的AI项目都基于该项目二次开发。
项目地址:https://github.com/labring/FastGPT
【开源免费】graphrag是微软推出的RAG项目,与传统的通过 RAG 方法使用向量相似性作为搜索技术不同,GraphRAG是使用知识图谱在推理复杂信息时大幅提高问答性能。
项目地址:https://github.com/microsoft/graphrag
【开源免费】Dify是最早一批实现RAG,Agent,模型管理等一站式AI开发的工具平台,并且项目方一直持续维护。其中在任务编排方面相对领先对手,可以帮助研发实现像字节扣子那样的功能。
项目地址:https://github.com/langgenius/dify
【开源免费】RAGFlow是和Dify类似的开源项目,该项目在大文件解析方面做的更出色,拓展编排方面相对弱一些。
项目地址:https://github.com/infiniflow/ragflow/tree/main
【开源免费】phidata是一个可以实现将数据转化成向量存储,并通过AI实现RAG功能的项目
项目地址:https://github.com/phidatahq/phidata
【开源免费】TaskingAI 是一个提供RAG,Agent,大模型管理等AI项目开发的工具平台,比LangChain更强大的中间件AI平台工具。
项目地址:https://github.com/TaskingAI/TaskingAI
【开源免费】XTuner 是一个高效、灵活、全能的轻量化大模型微调工具库。它帮助开发者提供一个简单易用的平台,可以对大语言模型(LLM)和多模态图文模型(VLM)进行预训练和轻量级微调。XTuner 支持多种微调算法,如 QLoRA、LoRA 和全量参数微调。
项目地址:https://github.com/InternLM/xtuner
【开源免费】LangGPT 是一个通过结构化和模板化的方法,编写高质量的AI提示词的开源项目。它可以让任何非专业的用户轻松创建高水平的提示词,进而高质量的帮助用户通过AI解决问题。
项目地址:https://github.com/langgptai/LangGPT/blob/main/README_zh.md
在线使用:https://kimi.moonshot.cn/kimiplus/conpg00t7lagbbsfqkq0