为什么 AI 干不了体力活——对话清华大学教授刘嘉 | 万有引力

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
为什么 AI 干不了体力活——对话清华大学教授刘嘉 | 万有引力
8344点击    2025-07-07 15:11

1997 年,AI 正处于第二次寒冬,这次寒潮的时间有点长,从 20 世纪 90 年代直至 21 世纪的第一个十年。


寒冬之下,有人坚持,有人幸运,也有人不是那么地有运气。


李飞飞说:“我觉得自己是世界上最幸运的人,因为我的整个职业生涯始于 AI 寒冬的末期,也就是 AI 开始腾飞的时候,所以我真的非常幸运,也有点自豪。”


而在现任清华大学基础科学讲席教授、心理与认知科学系主任、人工智能学院教授、北京智源人工智能研究院首席科学家刘嘉的世界里,则不一样。1997 年,对人工智能深感困惑的青年刘嘉远赴美国麻省理工学院(MIT)深造,慕名拜访人工智能之父马文·明斯基(Marvin Minsky),想要从这位鼎鼎大名的 AI 教父身上寻求良方。明斯基很 Nice,完全没有任何架子,让刘嘉前往 MIT 人工智能实验室面谈。但面谈的结果却让刘嘉备受打击,“我记得当时人工智能实验室在 MIT 是一栋很高的楼,我上去的时候是仰视,终于到了那种殿堂级的地方。下来的时候就如坠地狱,心里特别冷冰冰地坐了电梯下来。”


明斯基对人工智能的态度很消极,刘嘉和他聊人工神经网络,他大泼冷水说这不值得做。那么应该做什么呢?明斯基回道:“现在大家还在摸索中,也都不太清楚具体怎么做。”


寒潮之中,顶级的人工智能学者们心态崩了,都没有答案。当时,刘嘉已经被 MIT 脑与认知科学系(The MIT Department of Brain and Cognitive Sciences,简称 BCS)录取,明斯基一听,极力劝他留在脑科学。


明斯基是“人工智能”概念的提出者,也是 MIT 人工智能实验室的创始人之一,然而当时,在 MIT 里,人工智能也正处寒冬,基本处于无人问津的境地。与之相反的是脑科学,同样发端于 MIT,呈现一派热气腾腾的景象。


这次谈话让刘嘉备受打击,他深深地感到绝望,“AI 不行了,我还是做脑科学吧”。至此,作为国内最早接受人工神经网络深度启蒙、可能是中国第一位人工智能版主的刘嘉,再也没碰人工智能。一别近二十年,直至 2016 年 AlphaGo 战胜李世石,刘嘉重返实验室全身心投入到脑科学与 AI 的交叉研究中。


回首这段往事,刘嘉有些复杂的情绪,但他坚定地认为自己并没有错过 AI 的任何东西。脑科学和 AI,就像 DNA 双螺旋结构一样,时而联系紧密,时而分道扬镳。现在 AI 的发展又到了与脑科学结合的关键节点。


从 AI 演进与深度学习革命上,我们能够看到很浓烈的脑与认知科学(神经科学)、心理学与 AI 交叉的色彩,因为人工智能本就起源于“大脑究竟是如何工作的,以及机器如何能够模仿大脑,完成任何人类需要智力才能完成的事情”。


我们所熟知的感知机(Perceptron)发明人、神经网络创始人之一 Frank Rosenblatt(弗兰克·罗森布拉特)是著名的心理学家,深度学习教父辛顿、强化学习之父 Richard Sutton 均起于心理学,而后转向 AI 及计算机科学,甚至于强化学习概念本身就来自于行为主义心理学。机器学习之父 Michael Jordan 拥有心理学、数学、认知科学多个学位,于 AI 寒冬之时在 MIT 脑与认知科学系任教,青年刘嘉所崇拜的两位偶像——计算机视觉奠基人 David Marr、明斯基都是公认的认知科学家……群星闪耀,实在不胜枚举,AI 的灿烂星河里,脑科学与 AI 的交叉研究竟如此之多。


这也让我顿悟了一个困惑已久的问题,那就是为什么 AI 一直迭代的是智力,为什么在具身智能大火的今天,大多数机器人还是在执行预设任务。刘嘉这样说道:“前额叶(主管认知,大脑真正的‘中枢’)主要是在过去 300 万年形成,进化最晚,功能最弱,最好模拟。神经元最多的地方并不在大脑皮层,而在小脑,主管运动,密度最高,是经过几亿年进化而来。


这正是为什么体力活反而是最先进的机器人都干不了的关键原因,“因为它涉及到运动,涉及到更复杂的计算。”与生存相关的,人类觉得最简单的东西,反而是人工智能最难攻克的。这也带来了另一个我们需要直面的真相:“今年大热的推理、AI Coding 等,都只是我们模仿生物智能万里长征中迈出的第一步而已。”


而对于这两年间来回摇摆的 Scaling Law,刘嘉引用辛顿的理念、Sutton 的苦涩教训,结合自身所犯过的关键性错误直指:智能的第一性原理竟然只是“大”,而非精妙的算法或灵巧的设计,任何人强调 Scaling Law 不再生效都是荒谬的想法,做大参数、不断地扩大模型,这条路永远是对的,因为在历史长河里,人就是这么进化而来。他还有一个比喻特别有意思,当前,对于我们而言,可以怎么像大模型一样进化?三步走:


1. 为人生定义目标函数;


2. 使用随机梯度下降优化人生;


3. 人生所需不过一份注意:注意高质量的数据和人;注意实例而非规则;注意也是遗忘。


为什么 AI 干不了体力活——对话清华大学教授刘嘉 | 万有引力


欢迎收听对话音频,如有兴趣观看完整视频,可在文末获取


本期《万有引力》,一起从 AI 的第一性原理出发,穿越不时一夜变天、让人颇感焦虑的层层迷雾,追寻 AGI 的本质和通往 AGI 的可能路径,以及生而为人,对于我们开发者,可以如何和 AI 共进化,降低焦虑感,提升幸福感。


为什么 AI 干不了体力活——对话清华大学教授刘嘉 | 万有引力


结缘 AI,一别二十年


唐小引:今天在清华大学的校园里,很荣幸地邀请到清华大学基础科学讲席教授刘嘉老师,和大家一起分享他对于 AI 的研究和思考。欢迎刘老师,可以和大家打个招呼,做个自我介绍。


刘嘉:大家好,我是刘嘉,非常感谢唐老师对我的邀请。我是清华大学基础科学讲席教授,同时也是我们去年新成立的心理与认知科学系的主任。我的研究方向是脑科学和人工智能,我们通过脑科学来启发人工智能,做一些类脑方面的计算。


唐小引:刘老师长期从事脑科学和 AI 的交叉研究,我其实之前一直好奇为什么刘老师是从脑与认知科学走上了 AI 之路,在拜读了刘老师的新书《通用人工智能》后,算是解答了我的疑惑。这里面提到了您早期的 AI 故事:听了人工智能之父马文·明斯基的“劝”,选择留在脑科学的世界,由此告别 AI 20 年。我看的时候,觉得这里面还是有一种很复杂的情绪。刘老师可以给大家讲一讲您和 AI 的这个故事吗?


为什么 AI 干不了体力活——对话清华大学教授刘嘉 | 万有引力


刘嘉:我最早是做符号主义的,当时就觉得它所有的规则都需要写死,缺少灵动性。很巧,1994 年时,正好有一位博士后从日本学了人工神经网络回来,在北大开了一门课,可能是中国第一门人工神经网络的课程


唐小引:我把这个问题抛给了 GPT,问能不能推算出来是哪个老师。它给我的一个答案说可能是迟惠生老师(北京大学原常务副校长)。


刘嘉:不是。迟惠生老师挺厉害,他当时和另一位老师在北京市一个与智能相关的实验室做指纹识别,做得非常好。那位博士后也的确是在迟惠生老师的实验室里工作,我现在已经忘记他叫什么名字了,唯一印象就是他比较高、有点胖。如果那位老师能看见的话,请一定告诉我,他是我的 AI 引路人作者注:刘嘉老师在线摇人,欢迎留言联系)。


当时我跟随他学习人工神经网络,他讲 Hopfield(霍普菲尔德神经网络,由 John Hopfield 于 1982 年发明。2024 年,John Hopfield 与 Geoffrey Hinton 一起获得了诺贝尔物理学奖,以表彰他们推动利用人工神经网络进行机器学习的基础性发现和发明),当时我有两个特别大的困惑:首先是算力不够,我用的是一台 386 台式机,1994 年时的算力只有现在手机的万分之一,根本算不动。第二个困惑是,当时人工神经网络是一个极其小众的领域,搞人工智能本身就是一个很小众的群体,而人工神经网络则是小众中的小众。


我就在思考,AI 到底应该怎么做,难道这个世界只有 Hopfield 吗?当时国内互联网刚刚兴起,我读了一些相关资料,知道真正的 AI 江湖大佬是马文·明斯基,他仅凭一己之力就把人工神经网络按死了(AI 的第一次寒冬)。他当时正好在 MIT 的人工智能实验室,所以我就想去跟他学习,这是我为什么去 MIT 的原因之一。


原因之二是 David Marr(计算神经科学领域的先驱之一,1980 年因病去世),他是计算机视觉的创始人,在 MIT 脑与认知科学系。我对视觉、计算很感兴趣,这两位都是我很崇拜的人。我就到 MIT 去读博士,当时我已经被脑与认知科学系录取了,和 Marvin 联系,他很 Nice,给他发 Email 过去,就说你过来吧,完全没有任何架子。


但我和他聊天时,感觉到他非常消极。我和他聊人工神经网络,他说这个东西不值得做。我问:那我应该做什么呢?他说现在大家还在摸索中,也都不太清楚具体怎么做。他就问起我的背景,我说我在 BCS 系。他说你做脑科学,这个比较好。


当时正好是 1997 年,人工智能的最后一次寒潮(AI 第二次寒冬),但是寒潮时间比较久。脑科学在上一世纪 90 年代刚刚兴起,因为磁共振技术的出现,有一些更多的研究方法,而脑科学本身也起源于 MIT,所以当时 MIT 里脑科学热气腾腾,而人工智能则是冷冰冰的。大家更多的是去搞多媒体、通讯、做互联网,人工智能基本没多少人碰。


我记得当时人工智能实验室是在 MIT 一栋很高的楼,我去的时候是仰视,终于到了殿堂级的地方。下来时如坠地狱,心里特别冷冰冰地坐电梯下来,觉得 AI 不行了,我还是做脑科学吧。所以就再也没碰人工智能。


在中国,我可以说是中国第一个人工智能版的版主,当时在中国科学院有一个 BBS 叫 NCIC(恩兮爱兮)。所以我可以说是起了一个大早,但赶了一个晚集。等我真正回过神来,觉得人工神经网络这事值得再搞时,已经到 2016 年了。从 1994 年开始接触人工神经网络,到 1997 年正式放弃,再到 2016 年重新回头捡起,其中就差不多隔了 20 年。


我迷失掉的这 20 年,正好人工神经网络快速发展,或者说奠基性工作都是在这 20 年里做的。Hinton 的深度信念网络(Deep Belief Network,简称 DBN,是公认的深度学习开端)、杨立昆的卷积神经网络、预训练和微调的概念等核心工作及体系都在这个时候出来的。杨立昆当时做卷积,基本解决了视觉问题。到 2012 年 AlexNet 爆发,到后面其实都顺理成章,但这段时期我是完全错过的。


我们现在回过头来,大家都提人工神经网络是你必须要做、必须要学的,好像如果不懂 AI 或者连概念都不懂,是一件很错误的事情。但它真正埋下伏笔,正好是它最冷的时候。所以在《通用人工智能》里,我特别想回答一个问题:是什么样的底层逻辑,让这些人当时坚持下来了?而像我这类人,本来可以说是有很好的机会摆在面前,但我只是碰了一下,转身就告别了。等到 2016 年回来,别人都已经把山头全部占满,留给你的就是细枝末节。


唐小引:您相当于完全错过了这一段时期,现在回过头来看,会觉得后悔吗?如果有一个重新选择的机会,会直接选择人工智能之路吗?


刘嘉:我曾经想过一个问题,就是现在我这把年纪,如果有一个机会,回到过去,碰见那个刚进大学、十七八岁的小青年(指年少的自己),能够和他聊上半天,会聊些什么话题?


这是一个思想实验,每个人都可以想象。因为任何人从年少时到现在,中间肯定有一些不开心的、认为走了弯路的事情,你会想,如果我当时不认识那个人就好了,如果当时选 A 不选 B 就好了。我们总是会有这种想法。那如果我回去,我会说什么?


其实后来我想,最好的答案就是,我不会告诉他任何事情。我只会跟他说一句话:好好干就可以了,你做得很好,好好干。为什么?因为今天的我是由过去的点点滴滴累加起来的。如果我过去的道路改变了,那我今天的想法肯定会发生改变。


第二点,我觉得一个很重要的是,我没有错过任何东西。为什么这么说?其实可以看到,人工神经网络的早期发展,从它的 M-P 模型、点神经元模型,到后面的感知机、杨立昆做的卷积神经网络等,受脑科学的影响非常深。如果更大胆一些的话,它其实是抄袭了脑科学的发现来做的。


但进入到深度学习之后,脑科学和人工智能分道扬镳。现在我们谈的 MoE 架构、Transformer、注意力机制等,其实只是在概念上借用了一些认知科学、脑科学的概念,但它和脑科学有什么关系吗?没有。


这就让我产生一个疑问:我们下一代人工神经网络到底怎么发展?是我们不停地按照这种方向去垒参数、改算法,还是依然需要依赖脑科学,得到一些新的启发?这需要赌一个像 Hinton 他们当年所谓的“信仰”。


我觉得有两点:第一,我们人类还是目前世界上最聪明的个体,比现在的大模型聪明。大模型是通用人工智能的火花或者雏形,还谈不上是 AGI。第二,从进化的角度来看,我们人类的大脑其实不是宇宙中最大的,参数量也不是最大的。大象的大脑神经元比我们多,连接比我们多,鲸鱼的大脑更不用说了。但人类比大象、鲸鱼都聪明。也就是说,除了参数之外,人类大脑可能还有一些更精巧的结构,这些结构可能是通向真正智慧的关键。


唐小引:更加精巧的结构是指?现在有哪些发现?


刘嘉:非常好的问题,答案是我不知道。这也是为什么我们现在要做脑科学的一个前提。


所以我觉得下一代人工神经网络,可能还是要重新把脑科学和人工智能再做一次“联姻”。它们开始连得特别紧,和双螺旋结构一样,到了深度学习分道扬镳。我觉得现在是时候又重新回到一起了。这就是我说的,如果我重新来做选择,我并没有遗漏掉什么。因为我过去在脑科学的积累,使得我在 2016 年做了一个重大决定,把人工神经网络、人工智能包含进来,让脑科学和人工智能结合,做一些类脑智能或类脑计算方面的工作。我觉得这些工作可能反而是更加重要的,或者是对下一代人工神经网络、对通向真正的 AGI 是会有一些帮助。


关键性错误:AI 十年交叉研究中学到的苦涩教训


唐小引:所以您刚才总结的是,如果回到过去,可能对着年轻时候的刘老师会拍拍肩膀说“好好干”,因为功不唐捐。第二点,您之前提到提交了辞呈,重返实验室投身脑科学加人工智能的研究,从 AI 1.0(AlphaGo 为标志)到现在 AI 2.0(ChatGPT 发布为节点)的发展,这其中您有哪些关键性的研究成果可以给大家分享吗?


刘嘉:关键性的成果我谈不上,但是我可以给大家分享一下关键性的错误。我觉得这也是苦涩的教训。对错误的理解,可能会对我们未来有比较大的帮助。


第一个比较大的错误是,当时我花了很多时间用简单的 AlexNet 或 Hopfield 这种模型来和大脑做类比,做相应的研究。但在 2022 年 11 月 30 日 ChatGPT 出来后,我就意识到自己犯了一个根本性错误。就是原来我用的人工神经网络参数量太小,只是一个我们学术上讲的 toy case(玩具)。这种玩具本身并不能回答太深刻的关于智能的问题。


其实现在回头来想,这是一件非常简单的事情。我们肯定不能指望线虫(我们经常用来做神经模型,它只有 302 个神经元)具有智能。第二点,我们人类大概在 300 万年前和猴子分道扬镳,独立进化干了一件事情,就是大脑的体积增加了三倍。我们拼命地长脑子,拼命地长神经元。只有当神经元数量到达一定程度时,才可能变得真正的聪明。


所以我就意识到原来我研究的全是小模型,诸如 AlexNet、VGG16 或者 ResNet 等。后来我就觉得方向错了,太过于关注这些神经网络的可解释性,但当神经网络太小时,它不可能具有真正的智能。所以在那个时候我就决定要干一件事情,就是必须转向大模型。


大模型这条路是对的,或者大参数量这条路是对的。它是通向智能的一个必要条件。首先你模型必须大,如果不大,智能免谈。这是我犯的第一个错误。GPT-3 在 2020 年 5 月出来时,我还在智源研究院批判这就是个傻大粗,试图靠垒参数垒出智能来,我说这条路完全行不通。后来证明我错得格外离谱。


所以在《通用人工智能》里,我就特别想把 AI 的底层逻辑讲清楚,就是我们只有知道当模型必须要大的时候,它才可能拥有智能,这是一个必要条件,但不是充分条件。我们课题组花了很多时间去追 DeepMind 的工作,看 Google 的工作,而 OpenAI 的工作我们是彻底忽略掉了。后来 2023 年时,我花了大概半年的时间思考我为什么错。后来想,原来我是忽略掉了人工智能的第一性原理。人工智能的第一性原理就必须是大,参数量必须要大,不大的话,它是没有智能可言的。


我犯的第二个错误是什么?大模型来了之后,冲击特别大。我当时就想,是不是原来我们是百花齐放,现在是一枝独秀,是不是我们所有人都应该去搞基于 Transformer 的大模型?我们也做了很多这方面的工作。但直到 2023 年年底,有一天我突然想到一件事,生物的进化、人的大脑的进化,其实分成两部分。第一部分,神经元在不断增加:线虫 302 个,果蝇百万级,斑马鱼千万级,小鼠是上亿,猴子是百亿,我们人是千亿级(860 亿个神经元)。这是大模型走的道路。


但后来我意识到还有第二条路,我们以前一直忽略掉了,就是神经元的复杂度也在不断地增加。我们人的神经元复杂度,远比小鼠、线虫复杂很多。也就是说,人在干两件事情,一是神经元数量在增加,二是神经元本身的复杂度在增加。而我们现在的人工神经网络,其实忽略了第二条路线,在走第一条路线。我们现在的人工神经网络做的所有事情,用的还是原来的 M-P 模型:输入求个和,然后通过一个激活函数再出去。再复杂的人工神经网络都是基于这么一个基本单元,它这一点是从来没有进化过的。


这个时候我就想,进化是我们现在唯一能参照的智能法则。如果进化这么看重神经元复杂度的话,背后应该是有原因的。所以那个时候,我发现原来盲目地去跟风大模型是有问题的,还是应该和脑科学结合起来,看能不能创造出一个全新的人工神经网络出来。这是我们经常说的一个根节点问题,如果我去修算法,那是在改枝叶。但如果我从最底层把神经元都给换掉,把原来的点模型换成精细神经元模型,更加反应树突计算的神经元,连最底层的信息处理单元都换了,会不会得到一种新的人工神经网络出来?这就是脑科学和 AI 的真正交叉。所以从这一点上来讲,让我觉得,还真有点好东西可以做,从原来的跟风,回到自己擅长的领域里来。


Scaling Law:AI 的第一性原理


唐小引:您刚才提到通往 AGI 之路的第一性原理就是大。其实从 ChatGPT 出来之前,大家就在追求大模型,往大参数走。那个时候大家还会质疑一味地追求大。到现在,很多人对于 Scaling Law 是否还成立,是否还是“大力出奇迹”,有着很强的争议。在这里我想问刘老师,您对于 Scaling Law 的观点是什么样的?


刘嘉:我觉得 Scaling Law 是绝对没错的。我认为 AI 之所以比人类更有发展前途,就是因为 AI 可以无限扩张,而人是已经被锁死了,不能无限扩张。所以我觉得任何人强调 Scaling Law 不再生效了都是 nonsense(荒谬的想法)


从我的角度来讲,做大参数,不断地扩大模型,这条路永远是对的。就像 Sutton 讲的 a bitter lesson(一个苦涩的教训),再精巧的算法,最后在这种“大力出奇迹”下面,都变得苍白无力。所以模型变大这件事情是没问题的,从进化的角度上来讲,人的大脑就是在不停地变大的过程中。所以任何对 Scaling Law 的质疑,都可以忽略掉,没有价值。


但是,我刚才也说了,它是一个必要条件,但非充分条件。并不是模型大了之后,就必然会产生超越人类的智能,或者像人一样的智能。


唐小引:那您怎么看待大家所说的 Scaling Law 撞墙的问题,很多研究都在去探索 Scaling Law 的延续。


刘嘉:从我有限的知识和观点来看,所谓的 Scaling Law 撞墙,其实就是一些炒作。说白了,就是没有那么多钱,或者买不到那么多卡,没法在 Scaling Law 这件事情上和别人竞争,就说这条路是不对的,还是搞精细算法。我觉得搞精细算法,尽可能地 squeeze(压榨)里的能量,让算法变得更加精巧,显存用得更少,这都是对的,没错。但如果拉长时间来看,肯定是大量的显卡堆出来的算力,能培养出更复杂的模型。


比如,北京大学和中国科学院深圳研究院做的一个调研显示,我们国内很多模型其实都是从国外的模型蒸馏而来。蒸馏有好处,就是不用从零开始训练,相当于有个老师,直接从老师那儿吸取知识,训练量少了,参数量也可以少很多。但这也带来一个缺点,就是原来那个模型的三观,变成了你的三观,这就是 AI 对齐的问题。国内绝大多数模型都是靠蒸馏而来的,而不是从零开始训练。


所以回到这个问题,Scaling Law 撞墙,只是一种商业上的用语而已。但是从学术上来讲,更大的算力、更大的参数量,这条路永远是没错的。因为人就是这么进化来的。


学术界 vs 工业界:从 0 到 1,与从 1 到 100


唐小引:您刚才讲到从小模型到大模型,您个人的苦涩教训时,我就在思考,很多学术界的老师会说,在学校里做的研究就像玩具,因为如何获取到大的算力、数据和真实场景的支持是个难题。对于您来说,在学术界做大模型研究,如果一直在学术界,是不是会碰到瓶颈?


刘嘉:这是一个特别好的问题,我们一定要分清大学和大厂在功能上的区别。我经常和学生说,你一定要想清楚,到底是想做科学还是工程。两者没有高下之分,但具体实践却截然不同。


如果想做工程,其核心是在于怎么从 1 做到 100。这种情况下一定要去大厂,即使是清华,都不要来。为什么?因为清华是很厉害,但在算力、数据、人员配置上,绝不是大厂的对手。大厂为了一个商业目的,可以十几亿、几十亿地砸进去,OpenAI 甚至可以砸数百亿美元,大学肯定不行。大学一个课题组有个几百上千万的经费就已经很厉害了,但拿来搞大模型肯定是不行的。所以商业应用、大模型的调教,一定要到公司里做。


那在大学是要解决什么问题呢?大学要做 0 到 1 的事情,即这个问题在我们研究之前它不存在,或者它的解决方案不存在。我们在大学里做一些探索性的从 0 到 1 的工作,这是大学应该干的。为什么?因为这个时候我连方向、怎么做都不知道,所以不计成本。第二点,不用担心两三年不出活会被开掉,大学有 tenure 制度(终身教职)。就像 Hinton 当年在多伦多大学做人工神经网络,备受质疑,校长曾说过“我们学校一个疯子就够了,绝对不能进第二个搞人工神经网络的人”。但是校长开不了他,所以他可以潜心搞研究。但如果在一个大厂,市场上已经说这个方向是错的,还敢在上面砸钱吗?不能。


总结而言,大学做的是 0 到 1 的颠覆式创新,而公司或大厂做的是组合式创新,目的是不一样的。对于学生而言,要做科学问题,就到大学来读 PhD,我们只做 0 到 1,做的东西就是“无用”的。如果有用,就到大厂里去做。我们做科学问题,60 分万岁,只要能跑起来。比如做一个智能手表,体积、耗电都很大,但它只要能达到智能手表相应的功能,就算完成了。这个时候公司开始接手,怎么把它小型化、设计得很好看,怎么让电池续航从一小时变成两天。这些是工程上的问题,而非科学问题。


把这两点分清楚了之后,回到刚才的问题。大学要做什么样的人工智能?我觉得我们大学里面只做一种人工智能,就是下一代的人工智能。它现在不存在,但是我们有很多可能的探索路径,大家可以去尝试,就像我尝试把脑科学和 AI 结合起来。你说现代的人工智能真的会是这样子吗?我坚信是如此,但如果问其他老师,大家会说不一定靠谱。没关系,在大学里我可以做这种尝试。一旦成功了,就是一种颠覆性的创新,就会把以前推翻掉。就像 Hinton 搞出深度学习,AlexNet 一出来,就把以前做图像分类的所有非深度学习的算法干掉了,它就是王者。


唐小引:您提到了工业界,从 ChatGPT 到现在,国内经历了百模大战,今年大家核心在做 Agent。但同时也发生了一些事情。工业界做 AI 的成本是巨大的,相应地就涉及到资金投入还有人员的变动,这半年里发生得非常高频。不知道您站在学术界看工业界,有哪些思考可以分享?


刘嘉:对于人工智能这个领域,学术圈其实也特别卷。我们通常说一个迭代周期是 72 小时。如果三天没看论文,可能有些东西就已经过时了,它就这么残忍。所以大家愿意去发会议文章,而不是发期刊文章,因为一篇期刊从投稿、审稿到最后接收,大概至少需要一年的时间,那时候论文已经过时了。


回到工业界,其实是特别残忍的。举个简单的例子,原来我们做文生图,大家用的是 Diffusion(扩散模型)。后来 OpenAI 说了,你可以不用 Diffusion,可以用文字生成 Token 这种自回归的方式来做,而且大家也看见了效果特别好。所以本来像 Midjourney 这种做得非常好的,可能一夜之间就没了。


唐小引:这是涉及到自回归和扩散模型的路线之争。


刘嘉:对,如果从人类学的角度来讲,这在历史上也发生过。你看我们的祖先智人(Homo sapiens)和尼安德特人,当这两个人种碰到一起之后,绝不会握手言和,只能是一个人种消失掉。结果是我们智人要更聪明一点,把尼安德特人灭掉了。现在尼安德特人不复存在,只有少量的基因流入到智人体内。对于人工神经网络的这种路线之争,它一定不会是两种算法共存。


唐小引:一定是优胜劣汰。


刘嘉:对,因为在聪明这件事情上,越聪明就越残忍,不会存在聪明的多样性。因为聪明这件事情是可以清楚定义的,生成的图是不是更好,生成的文字是不是更清楚,绝不存在大家和平共处。所以从这个角度上讲,工业界一直给我一种感觉就是不确定性。今天看他楼起了,明天就看他楼塌了。这就是工业界的一个现状,很残酷。


原来我们说的百模大战,现在还剩多少?甚至当年比较厉害的几个做大模型的,除了 DeepSeek,好多都已经没有了出路。道理非常简单,当一个更好的东西出来之后,它就是赢者通吃,绝不会出现共存。


唐小引:这是我们的必经之路,对吧?


刘嘉:如果简单来看,这就是进化,进化就是这么残忍。你看猴子,各种各样的猴子都能活得挺好,因为它们智商不够。智商不够的物种是能够共存的,而智商比较高的物种,那一定要灭掉对方。


所以从这个角度上来看,竞争很激烈。第二点,有一个很重要的把握,就是我这几年做人工智能,我每次都在训练自己去寻找它发展的底层逻辑。这个底层逻辑太重要了,也就是马斯克强调的第一性原理。所以我在写《通用人工智能》时核心不是技术层面的内容,因为今天还很流行的技术,等书面世之后,可能已经受到了严重的挑战。但它背后的底层逻辑,应该是保留住的。


唐小引:对于刚才的工业问题,那底层逻辑核心,比如对于大家看到的楼起楼塌背后不变的是什么?


刘嘉:我觉得现在企业有一个最核心的原则,就是千万不要去做专用模型,通用模型专家化,一定会干掉纯专业的模型。举个例子,最开始我们做面孔识别,都是用的卷积神经网络。但是现在做这些的已经全部死掉了。后来大家发现用 Transformer 这种方式来做视觉识别,效果要远远好于通过卷积来做。我原来做 Transformer 是做大语言模型的,是通用模型,但是我把它调教成做图形,居然就胜过原来专门做图形识别的那些模型。


所以这就是我总结出来一个经验,千万不要做一个专一的模型。


唐小引:这其实从去年年底开始,AI 技术圈又兴起了大小模型协作,我理解是通用模型和专用模型在一起协作的方式。


刘嘉:我是这么来看的,首先要区分两个概念。一是我们现在讲的 Agent,大模型扮演大脑的工作,下面有一大堆各种各样的小工具,有的是负责搜互联网,有的是负责绘图。一个大模型带一堆小模型,在 Agent 这个领域是没错的。


我们刚才说的是在一个相对比较大的领域里面,比如绘画,我是专门做一个模型来绘画,还是把一个通用的大模型拿来精调或微调实现绘画。现在结论已经很清楚了,从大模型里面调一下,先有一个聪明人,再把它变成一个专家,一定会干掉直接往这个方向去培养的模型。打个比方,一个聪明人,他干啥都会很厉害,只要他接受了适当的教育,这个适当的教育就是 fine-tuning。


很多人都很怕 OpenAI 发布新功能,因为一出新,一大批创业公司可能就此死掉。因为 OpenAI 掌握了一个非常强大的大模型 GPT 系列,往任何方向稍微转一下,在性能上就把原来专门做某个方向 AI 的人全部给干死。


唐小引:这就是您说的“通用模型专家化”。


刘嘉:对。DeepSeek 的出现改变了很多东西。以前开源的模型,它不可商用。Llama 功能很有限,如果真想去做非常严肃的商用,是不可能的。而可用的模型它是闭源的,比如 Anthropic 的 Claude,还有 GPT 系列。只能通过购买 token 来用,这对商业来说成本很高。


DeepSeek 没有炒作,是一个货真价实的东西。它的性能达到了当年 GPT-4o 的水平,但它还开源。这样就给大家一个可用的商用级别的大模型。我觉得这件事情对很多创业公司来讲非常友好。现在也有很多受它启发而开源的模型,比如阿里的通义千问,非常好用,性能在很多方面不比 DeepSeek 差。我们现在处在一个良好的开放社区里,对商业发展非常有帮助。


AI 基础理论的真实现状:为何总是“新瓶装旧酒”?


唐小引:从技术来讲,AI 的真实现状是什么?由 DeepSeek 带火的 MoE,它的概念能追溯到 1991 年。强化学习也能追溯到上个世纪。自从 Transformer 之后,很难说有比较关键性的基础理论突破。很多人关心 AI 的瓶颈问题。


刘嘉:强化学习这个概念来自于行为主义心理学,是上上世纪 1890 年代由哈佛大学心理学教授桑代克提出来的。后来到了上世纪六七十年代,强化学习日益被意识到可以拿来做一种算法训练模型。而 MoE 这个架构,最早也是来自于认知科学的一个概念,叫“全局工作空间”(Global Workspace Hypothesis)。


为什么 AI 现在和心理学、认知科学、脑科学结合得这么紧密呢?道理非常简单,因为人工神经网络从一开始就是通过仿生这条路来走的。Hinton 当年之所以坚持,他的一个核心理念就是,通过神经网络的方式,人能产生智能,那我去仿生它,也一定能够产生智能。所以人工神经网络本身就是一条仿生的道路。


第二点,它的目的是要产生跟人一样的智能,我们叫类人智能。既如此,那人的各种行为表现、认知方式,也成为人工神经网络去模仿的根基。我们找到了大脑走的是“全局工作空间”,那我是不是用 MoE 来搞一搞类似的方式,是不是可以运行?就发现的确能运行得非常好。


唐小引:我很困惑,为什么 AI 的追求是类人?难道不是“诗和远方”交给人类自己,脏活累活让机器干吗?现在好像反过来了。


刘嘉:其实,我们进化出大脑皮层,现在强调的推理、编程、语言,这些功能的核心脑区是我们的新皮层,比如额叶。这总共也就进化了几千万年,甚至说得不保守一点,也就是几百万年。比如我们的前额叶主要就是在过去 300 万年形成的,它和我们所谓的思维链(Chain of Thoughts,CoT)有密切关系。它在进化上只花了这么点时间,所以它的功能也是最弱的,最好模拟。


我们再看另外一个角度,我们整个大脑有 860 亿个神经元,神经元最多的地方不在大脑皮层,而在小脑。我们人的整个大脑里面神经元最多的在小脑,它的密度是最高的。而小脑主管我们的运动,运动这块是经过几亿年进化出来的,它花了更久的时间,也就是说它其实是一件更难的事情。所以我们现在所谓的苦活、脏活,你拖个地板、洗个碗,都觉得谁都能干,但是机器人干不了,最先进的机器人干不了,因为它涉及到运动,涉及到更复杂的计算。


再比如感官,我们俩现在聊天,突然那边一个黑乎乎的东西飞过来,我们二话不说马上就做一个遮挡动作,这是下意识的。机器人不会,一个球扔过来,它一定会被砸到,它反应不过来。因为机器人接触到外面多模态信息的时候,它必须要快速提取有效信息,现在的 AI 干不了这件事情,它的处理速度极慢。


所以,与生存相关的,我们觉得最简单的东西,其实现在反而变成了人工智能最难攻克的。而我们觉得很厉害的,比如解个偏微分方程,反而不需要太多的智能。所以回到我们现在的问题,为什么要去做仿生?因为我们所做的推理、写代码等只是我们模仿生物智能万里长征中迈出的第一步而已。真正要让它在这世界上像人一样自由地游走,能够趋利避害,看见一个危险就躲掉,看见有用的东西就扑上去,还离得太远。


唐小引:所以,具身智能真正的挑战是在于小脑?


刘嘉:对,在多模态感知和小脑这一块,而非推理。因为推理大模型已经把它解决掉了。现在大家觉得具身智能很奇怪,认为只要接上机器人,或者接上辆小车,在外面跑一跑,就叫具身智能。其实这和我们认知科学所谈的“具身”(embodied cognition)是风马牛不相关的。现在很多所谓的人形机器人,只是原来工业机器人换了个外壳而已,与智能一点关系都没有。


通向 AGI 的三条路线:为何 NLP 最终胜出?


唐小引:我们来聊聊您提到的通向 AGI 的三条路线:强化学习、脑模拟和自然语言处理(NLP)。您认为前两者行不通,NLP 更有希望,这个论断是大家的共识吗?


刘嘉:在 2022 年 11 月 30 日之前,当时我们在智源研究院,这三条路都有人尝试,百花齐放。大模型出来之后,其实其他两条路就垮了,只剩下通过自然语言做大模型这一条路。


在书中我提到了,这三种路线分别在模仿人的不同状态。脑模拟是模仿我的神经系统;强化学习是模仿人的行为;而大语言模型,它本身不是模仿语言,而是语言所承载的认知,它更多的是模仿人的思维。我们当时认为是条条大路通罗马,但为什么后来只有语言搞出了 AGI 的火花,而另外两条路不行呢?其实并不是说这两条路不行,而是它们有迈不过去的坎。


比如强化学习,我们人就是强化学习一路进化过来的,但这个时间太长了。生物花了 38 亿年的时间,才能接触到各种各样可能的条件。现在一个机器人要通过外界反馈来学会智能,不具有可行性。


再来说模拟神经元。从概念上讲没问题,但它也碰到一个现实问题,就是人的神经网络太复杂了,860 亿个神经元。我们对大脑的了解还不够,连算力都不支持。我们现在了解最多的就是线虫的 302 个神经元,连果蝇的十几万个神经元我们都搞不定。所以这两条路,不是说理论上通向不了 AGI,而是有太多的现实约束。


但是自然语言处理这件事,人类干了一件很厉害的事情,就是把所有的知识全部记载下来,通过书、图书馆、互联网等。现在只需要找一个神经网络,把这种知识压缩进去就够了。以前大家没找到很好的方法,而 Transformer 的核心是找万事万物之间的关系和连接,能建一个非常庞大的知识图谱。就能增加参数量,把全世界所有知识全部压缩在里面。一旦知识进去了,它就可能会开始思考。


AI 要大放异彩,需要两个条件。第一,高质量的数据。我们互联网的文本、书籍就是高质量的数据。而强化学习没有高质量的数据,到现在也没有一个关于具身智能或强化学习的很好的数据集像 ImageNet 一样。第二,它一定要在“已知的未知”这个领域大放异彩。就是说,人类已经知道一些初步的东西,但要把它全部解完还解不完。最好的例子就是 AlphaFold 解蛋白质序列,人类知道怎么解,但世界上有两亿个蛋白质,人一个一个去解可能得干一两千年。AI 来干这活正好。


但是,直接模拟人类大脑神经系统,对我们来说是“未知的未知”。我们不知道大脑神经元是怎么放电来产生思想的,对此一无所知。在这个领域,AI 是无能为力的。但是通过自然语言这件事情来做,正好两个条件都具备了。


唐小引:但现在对于高质量的数据,很多人说数据也面临耗尽,所以合成数据由此兴起。


刘嘉:数据耗尽是必然的,因为总共就只有那么多文字。我觉得现在对于大模型来说,最大的问题是它有一个关键口没迈过去,所以我们现在只能叫它“火花”。它没有创造力。


什么叫没有创造力呢?假设我现在训练一个绘画大模型,我输入的全是传统的经典绘画。训练完之后,它会画出梵高的印象派画作吗?不会。所有的大模型,其实都是在人给它的知识边界里,从来没有逾越一步。从某种角度讲,现在大模型能够生成(Generative),但是它没有创新(Innovation)。这是两个完全不同的概念。前者是 1 到 100 的过程,是工程问题。而人的创造力(Creativity),是 0 到 1 的过程。


数据耗竭是人给它的数据耗竭了,自己可以合成数据,但也是在人的框架里来合成,这只是数据增强,本身不会有太大的变化。所以数据耗竭现在是 AI 面临的一个非常重要的问题。它的突破点在哪?如果 AI 有一天能够像人一样具有创造力,能够干 0 到 1 的事情,那数据永远就不会耗竭了,因为它可以创造出人类所没有的数据出来,这样它就可以源源不断地去学习。


唐小引:您基于当今的研究,觉得 AI 自己拥有创造力是可能的吗?


刘嘉:从目前来讲,我们没有看到。这也是为什么我要去研究脑科学加 AI 的原因。因为我们人是有创造力的,人类作为一个物种,有这种 0 到 1 的创造能力,AI 是没有的。


这个事,是它 can’t do it(永远不能),还是 can’t do it yet(暂时不能)?这是一个信仰问题。对我来讲,我认为现在的大模型是不能做的,它不具有创造力。因为大模型所做的一切,全是在压缩人类已有的知识。在它的损失函数里,从来没有说要创造出新的东西出来,只是说怎么忠实地把东西给压缩进去。一旦大模型产生一点幻觉,我们人还要马上把它“掐”死。所以大模型从训练的第一步开始,我们的算法就在告诉它:不要有创造,就老老实实把人的知识用最好的方式压缩进去就 OK 了。


但是人不一样,我们人就是靠不断地创造出新知来进化的,我们的目的是一代要去颠覆上一代的东西。这是人和大模型一个非常本质的区别。所以我认为大模型在短期之内,它不太可能具备创造力。或者沿着这条方式去做,它不会具有 0 到 1 的创造力。


唐小引:对于 NLP 我很困惑的一点是,大家对于维特根斯坦的“语言的边界就是世界的边界”奉为圭臬。但同时,比如在自动驾驶的车上,如果前方有紧急事物,人类大脑是下意识的反应,已经带着人做了行动。但如果是跟大模型的交互,你要先用语言去沟通,它再去反应,可能有些事情是语言没有时间能够去表达的。


刘嘉:我完全同意这个观点。这就是刚才我说的,最容易模仿的就是我们的思维。我们真正的下意识反应,看见一个危险我马上就躲,这个与我们大脑皮层没关系。卡尼曼写了《思考,快与慢》,我们现在是在模拟第二系统,也就是慢思维这一部分。我们所谓的思维链,其实就是模仿慢系统。


但是,人的第一系统,这种快思维,大模型还没有去解决。这个问题就必须留给具身智能来解决。所以具身智能的难度远远要高于大模型的难度。


维特根斯坦说“语言的边界即世界的边界”,这个世界指的是认知的世界,不是我们的物理世界。我们思维的边界是由语言所定义的。但是,我们的很多行动、潜意识的反应、情感,这个不属于认知的世界,它是人类一种本能性的反应。而这套系统其实对我们人来说,或者从生物智能来讲,它是一个更加珍贵的东西,它更复杂,而且我们现在对它更加一无所知。所以我觉得下一代人工智能为什么一定要和脑科学结合,就是我们得去把第一系统给补上,不能只靠第二系统干活。


知识密集型的岗位会消失 95%,TOP 5% 的人会活下来


唐小引:回到人本身的话题。从大模型席卷开始,大家就核心聊到了人本身,首先就是程序员。从 ChatGPT 一出来,就有了 AI 取代程序员的论断。在教育上,很多人讨论为什么还要学习,大学教育是不是要有一些变化?


刘嘉:因为大模型的出现,我们原来定义的知识密集型行业,比如编程、律师、医生,现在变得特别不值钱了,知识变得不值钱了。现在一个不会编程的人,都可以写出很好的代码出来。Cursor 现在写的代码已经比 99% 的人都要强了。


这个时候对于人类而言要干嘛?原来我好不容易学会编程,终于有一碗饭吃,现在瞬间我就失业了。这是一个事实,永远没法改变。其实这件事情本身并不是一个让人恐慌的事情。回到第一次工业革命的时候,我是一个小作坊的经营者,每天靠织布挣钱,但有一天机器来了,开了一个纺织厂,它织的布又好又快,价格还便宜,那我不就一下失业了吗?


工业革命其实把人从这种繁琐低效的工作里解放出来,所以工业革命之后,人的 GDP 才开始大量增加,社会才高速进步。AI 要干的事情,其实也是把人从那种枯燥复杂的事情里解放出来。以前编程,大量的代码是在做重复性的工作(高频的复制+粘贴)。现在 Cursor 能帮你把大部分的代码写了,那我们每个人就可以真的坐下来,考虑要实现一个什么样的功能,把自己的劳力用在了真正的刀刃上,而不是去 Ctrl+C、Ctrl+V。


所以,这其实是人类一种真正的解放。从原来重复性的、基于知识的工作,变成一种可以去做创造了。因为创造这件事情是 AI 不行而我们人类最擅长的,我现在更多的把 AI 当成一种助手,它不是替代我的角色。将来人与人之间的竞争会变成一个会用 AI 的人 vs 一个不会用 AI 的人,而不是人和 AI 之间的竞争。


唐小引:就以程序员为例。编程本身是用程序的语言作为中间介质给到机器,但我们现在可以直接用 AI,AI 可以自己写,为什么还需要中间这个环节?


刘嘉:我从来不认为编程的本质是在写代码(Code),我认为编程的本质是通过机器来解决问题,它的核心是问题解决。编程高手是在想怎么通过一条有规则的方式,把一个复杂问题给解决掉,计算机程序只是他的工具而已。Cursor 本身不具有解决复杂问题的能力,它只是执行者。人的这种复杂问题解决能力,是没有被 AI 所取代的。知识密集型的岗位会消失掉 90%、95%,但它会让 TOP 5% 的这些人活下来。


唐小引:TOP 5% 的是哪些?


刘嘉:具有稀缺性的人。我举个例子,音乐人小柯,现在大家都可以用 Suno 生成音乐,把很多一般的音乐人都干掉了。但在 AI 大量出现的情况下,小柯的价值反而涨了。因为他是 AI 现在代替不了的顶级音乐人。他制作音乐时,会让 AI 先做,他听了之后,就要让自己的音乐和 AI 的方式不一样,让音乐一听就有人味,没有 AI 味。


唐小引:所以对于大家来讲,要努力修炼成稀缺的 5%。


刘嘉:对,那是最关键的。因为 AI 的加持,现在人人都能拿 80 分,所以 80 分就没有意义。这些人的区分度就完全没有了。现在你需要干什么?需要从 80 怎么变成 90,怎么从 90 变成 95。越能做到这一步,就能把稀缺性完全展现出来。


唐小引:这就是您想要讲的通识教育


刘嘉:对。从大学教育的角度上讲,现在就不再是围绕着把人变成一个专一学科的人,而是要把它变成一个通识,要跨学科,什么学科的知识都要有一点。因为人非常擅长把各个学科的内容进行交叉,在交叉的过程中会产生新的创造。创新点从来就在学科的交叉上。


唐小引:比如就清华而言,这两年在追求跨学科方面有很大变化吗?


刘嘉:我就举两个例子。第一个例子,现在清华把本科生教育做一个转换,要全部放到书院里去。原来计算机系的学生就在计算机系学习,现在清华不这么做了,而是所有系把自己的本科生放到书院里面,好几个学科的同学都放在一起,进行大类教育,什么都学。等到大二大三时,才选专业。将来所有清华的系或学院就不再有本科生了,全都放到书院里面去。


第二个比较大的改革,以今年招生为例,清华要扩招 150 人,全部做人工智能,成立了“无穹书院”。这 150 人学 AI 的方式和其他人工智能完全不一样,都是“AI+某个方向”,可以 AI+生物、AI+化学、AI+汽车制造。是以人工智能为底,但核心是向各个学科扩展。即使学 AI,也不是纯学 AI,而是一定要和某个学科跨起来学。


结语:这是焦虑的时代,还是幸福与兴奋的时代?


唐小引:刘老师最后给我们的读者、开发者、工程师群体,留一个您想说的心理话或者寄语。


刘嘉:如果简单讲一句话,我觉得现在是一个最美好的时代。因为从来就没有哪个时代,能够因为通用人工智能的出现而变得如此有趣。我们以人类智能为模板,创造了一个全新的物种,一个终于在智力上可以和人类进行对话的新物种。以前我们是这个宇宙的孤儿,整个宇宙里就只有我们人类是一个聪明的物种。现在我们终于有个可以对话的物种了。


所以为什么我说这是一件很幸福的时代,我们终于不再孤单了。而且这是一个非常让人兴奋的时代,因为我们可以和 AI 一起来共进化,共同成长。这是一个更有想象力的未来。我们能不能通过它,让我们寿命变得更长,治愈我们所有的疾病?我们能不能通过它来扩展我们的认知,做脑机接口、认知增强?我们可不可以然后通过它来真正获得永生?我觉得 AI 给我们带来了原来只存在于科幻小说里面的很多想象场景,但随着 AI 的发展,随着它和各个学科的结合,这一切都从一种科幻或者神话传说,逐渐会变成现实。所以这是一个既让人非常幸福,同时又让人感到非常兴奋的时代。


唐小引:也会很焦虑吗?


刘嘉:焦虑就像第一次工业革命一样,首先是焦虑,所以大家会去砸机器。但是后来大家觉得还是有机器的生活会更好一些。


唐小引:您的《通用人工智能》姊妹篇预计什么时候和大家见面?


刘嘉:我希望 2025 的暑假能有时间把下半部写成。因为人工智能这个领域是 72 小时的一个迭代速度,它和心理学、脑科学不一样。所以我想能够把一些比较新的想法或者从不同学科来看的东西尽快写出来。

我希望是这个暑假能够把它写出来,但是,任何事情都可能有意外。


唐小引:谢谢刘老师为我们带来的精彩分享,也祝刘老师的下一步著作早日面世。


刘嘉:谢谢。希望大家能够通过这次的讨论和阅读有一些新的感悟,也希望读了之后能够和我进一步地分享讨论。


文章来自于“CSDN”,作者“唐小引”。

关键词: AI , AI访谈 , 人工智能 , 大模型
AITNT-国内领先的一站式人工智能新闻资讯网站
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
智能体

【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。

项目地址:https://github.com/Significant-Gravitas/AutoGPT


【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。

项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md

2
免费使用GPT-4o

【免费】ffa.chat是一个完全免费的GPT-4o镜像站点,无需魔法付费,即可无限制使用GPT-4o等多个海外模型产品。

在线使用:https://ffa.chat/

3
微调

【开源免费】XTuner 是一个高效、灵活、全能的轻量化大模型微调工具库。它帮助开发者提供一个简单易用的平台,可以对大语言模型(LLM)和多模态图文模型(VLM)进行预训练和轻量级微调。XTuner 支持多种微调算法,如 QLoRA、LoRA 和全量参数微调。

项目地址:https://github.com/InternLM/xtuner