DeepSeek会是时代的破壁人吗?追问专访 | 上交大副教授林洲汉

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
DeepSeek会是时代的破壁人吗?追问专访 | 上交大副教授林洲汉
7091点击    2025-02-28 10:19

DeepSeek会是时代的破壁人吗?追问专访 | 上交大副教授林洲汉


# 前言


在AI技术风起云涌的今天,名为DeepSeek的东方力量掀起骇浪。它如何打破常规,照亮AI行业的黑暗森林,又如何为中国的AI发展带来前所未有的临界点?


这场关乎人类文明坐标的竞逐,早已超越算力堆砌的军备竞赛。在神经网络的意识萌芽处,在AI决策的责任悖论中,在开源生态与算力垄断的终极博弈里,我们正在见证:究竟是硅基生命的寒武纪大爆发,还是人类文明的最后一位破壁人?


带着这些问题,我们邀请到图灵奖得主、深度学习创始人Yoshua Bengio的学生、上海交通大学副教授林洲汉,与他一同挖掘DeepSeek背后的逻辑与智慧,思考AI在推动科技和社会前行中的潜力与挑战。



DeepSeek会是时代的破壁人吗?追问专访 | 上交大副教授林洲汉


相关追问:

1. 怎样才能预测到可能改变世界的论文?

2. 如何看待学术互联网化的现象?

3. DeepSeek会是中国AI发展的临界点?

4. 开源是AI发展的火种吗?

5. 小镇做题家的学习模式会被AI淘汰吗?

6. AI会成为哪些职业的刽子手?

7. 人们是否在见证硅基生命“意识”的产生?

8. 人工智能是否是人类的最后一个发明?


AI困境


Q 我们怎样才能预测到可能改变世界的论文?


林洲汉:AI领域的一个特点是论文数量非常多。以三大顶会为例,每年发表的论文数量可达数千篇。因此,研究者在发表论文前,其实很难准确预测其发表之后的社会影响力。从专业角度来看,作者可能知道这篇论文解决了哪些重要的学术问题,但其破圈后会产生多大影响,甚至连作者本人都难以预估。


一个典型的例子是ChatGPT。在发布之前,OpenAI内部的人也没有预料到它会产生如此巨大的影响力。另一个例子是Transformer这篇论文。在完成之前,作者们知道这是一篇重要的论文,但当年投稿到顶会时,仅获得了海报(poster)展示的机会,这是顶会中最普通的一种展示形式。这意味着,即便是审稿人,当时也没有意识到这篇文章的重要性。随着时间的推移,这些论文的影响力和重要性才逐渐显现出来。


Q 论文有5分、10分这样的分值,这些分值是否还在起效?


林洲汉:这些分值更多是论文投稿时,同行评议期间专家对论文的打分。这种打分机制是学术界评审论文的惯例做法。然而,在AI领域快速发展、投稿量巨大的现状下,这种机制正面临崩溃的风险。每年为了评审这些论文,需要邀请大量审稿人,而审稿人一多,就很难保证评审质量。


目前,AI顶会的审稿情况可以说是参差不齐,好的评审和差的评审混杂在一起。审稿人对论文打分的方差很大,有时优秀的论文被误杀,而质量一般的论文却获得高分。因此,我们领域逐渐开始转向像arXiv这样的预印本平台。现在流行的做法是,不再等待同行评议的结果,而是将研究成果直接发布在arXiv上,让全世界的读者在论文发表前就能访问。这样一来,论文可以直接与所有观众见面,避免了传统评审机制中的一些问题。


Q 如何看待学术互联网化的现象?


林洲汉:这种现象是随着AI领域论文数量激增而自然产生的。其他领域十年发表的论文数量,可能都不如AI领域一年发表的多。面对如此大量的论文,即使是专业从业者也没有时间阅读所有内容。因此,我们需要一些机构或工具来帮助筛选和推荐论文,比如Google Scholar这样的专业学术搜索引擎。


对于科研人员来说,现在也面临着“酒香也怕巷子深”的问题。如果研究成果不配合一些宣传手段,比如在推特或朋友圈上进行推广,可能很难引起广泛关注。


Q 您曾在多家海外AI大厂实习,比如Google、微软和Facebook。这些公司在组织文化和研发思路上有何不同?


林洲汉:这些头部大厂的AI研发机构在风格上主要分为两大类。第一类是组织大量科学家共同解决一个宏大的问题,这与国内所说的“有组织科研”非常相似。第二类则是自由探索,同样是聚集了许多顶尖科学家,但不给他们设定明确的目标,而是让他们自由探索。


第一类风格的代表性机构是DeepMind和OpenAI。他们聚集了全球最顶尖的科学家,包括来自顶尖学校和实验室的优秀毕业生,共同规划并解决一些宏大的问题,比如DeepMind的AlphaGo和OpenAI的ChatGPT。


第二类风格的代表性机构,包括Google的Google Brain、Meta的Facebook AI Research(FAIR),以及微软的Microsoft Research。其中,Microsoft Research在深度学习崛起之前就已经存在,因此它的研究范围更广,规模也更大。


这两类机构各有特点。有组织科研的类型,比如AlphaGo和ChatGPT的做法,有助于利用学术界已有的技术,将其规模化并投入更多资源,从而看到这些技术在大规模应用中的效果。然而,对于那些全新的、甚至学术界尚未探索的技术,从0到1的突破更多需要像Google Brain或Facebook AI Research这样的机构,通过自由探索的方式来实现。例如,Transformer模型就是在Google内部自由探索中产生的。事实上,AI领域的许多重要进展,Facebook AI Research也发挥了重要作用。


Q 中美之间学术界的AI研究有何差异?


林洲汉:我认为高校在资源方面遇到的瓶颈,无论是中国还是美国,都是相似的。我们都面临同样的问题。在美国,许多高校教师选择创业或与企业合作。而在中国,除了上述两条路径之外,还有一种不同的路径。中国有许多新型研发机构,例如上海人工智能实验室和创智学


技术演进


Q DeepSeek会是中国AI发展的临界点?


林洲汉:我认为像DeepSeek这样破圈的案例,未来可能会越来越多。现在的情况更像是打响了第一枪,而不是唯一的一枪。我相信未来国内会出现更多这种级别的科研突破。


DeepSeek在R1这一套做法上,无论是在工程上还是底层技术创新上,都有其独特之处。例如,他们对Transformer模型架构的改进,以及他们的训练方式,都是其他厂商未曾做到的。我从他们的成功中学到了几件事。


首先,他们组建了密切配合的团队。作为一家企业性质的机构,他们没有太多条条框框的限制。梁总在选人上的偏好能够得到充分的落实。他们招募了许多奥赛金牌得主,而对其他传统评价标准的重视程度较低。这使他们构建了一个规模可控且非常强大的团队。其次,他们是一家初创公司,不像大公司或大机构那样有官僚主义的束缚,因此能够灵活调整方向。此外,他们通过幻方量化获得了较多的盈利,能够持续投入资源,没有后顾之忧。


总的来说,DeepSeek团队通力配合,致力于解决一些困难的问题的精神是值得我们学习的。


Q Deepseek妙语连珠,行文间会有很多中文式的意境表达,这与GPT输出的英文逻辑,有何区别?


林洲汉:从技术角度来看,这两者没有任何区别。对于模型来说,无论是中文、英文、法语、意大利语还是日语,所有语言都会首先被分词(tokenize)成词元(token),然后以词元的形式逐个输入模型。模型并不会根据语言的不同而采取不同的处理方式。

DeepSeek之所以能够在不同语言中展现出一些微妙的表达,更多是因为训练语料的影响。例如,在训练期间,DeepSeek可能接触了大量的中文古诗词等语料,这些语料让它学会了中文中一些特别中国化的表达方式。因此,DeepSeek的语言能力更多依赖于其训练数据的多样性和丰富性,而非对不同语言采取了不同的处理方式。


Q 开源是AI发展的火种吗?


林洲汉:如果我们不考虑单纯的AI,而是考虑AI所在的计算机行业,这些年的发展已经证明了一件事:开源一定比闭源好。所有软件工具,如果开发者选择闭源,最终在竞争中一定会落后于开源工具。我们可以看到,在计算机行业中,几乎所有工具都能在网上找到优秀的开源版本,而且这些开源软件通常是最好的。


AI的基本逻辑与广泛的计算机行业有一些区别,但我认为这些区别不足以改变现状。对于AI,尤其是大模型领域,很可能重要的模型最终还是会通过开源路线走得更远。


Q 在AI产业界,大厂和新锐各自扮演什么角色?


林洲汉:大厂和新锐确实各有特点。大厂的优势在于他们已经拥有盈利的业务,这些业务可以支撑顶尖的AI团队,使他们无需担心生存问题。因此,大厂在资源上具有非常强的优势,这是初创企业难以竞争的。例如,像Qwen这样的模型就做得非常强大,甚至导致一些小型初创公司看到其效果后,放弃了预训练的研究。


另一方面,初创公司的优势在于“船小好掉头”。他们没有大厂内部复杂的部门划分和利益协调问题,可以从零开始规划人员安排,专注于做大模型这件事。如果初创公司能够解决基本资源问题并做对事情,也有可能取得突破。例如,DeepSeek就是一个成功的例子。


Q 有哪些领域是大模型无法覆盖,而创业公司有机会去完成的?


林洲汉:在大规模无监督预训练,和后续的微调及Agent开发之间,未来可能会形成明确的分工。因此,大模型的大规模预训练和基于大模型的二次开发(包括Agent)可能会成为两个相对独立的领域。


对于初创公司来说,如果无法获得大量资源,专注于Agent和应用开发是一个很好的策略。大模型在应用中遇到的大部分问题,可以通过巧妙的产品设计或是调整大模型的使用方式来解决,而这些正是Agent或二次开发者的工作。


然而,大模型在各个场景下的落地过程中,始终会存在一些无法通过应用设计解决的共性问题。这些根本问题可能需要通过大模型预训练阶段的基础技术进步来解决,这应该由从事基础大模型研究和开发的公司或研发机构来完成。


Q 人工智能做决策值得信赖吗?


林洲汉:在一些受限环境下,针对特定任务,人工智能的决策质量可以优于人类。关键在于如何找到这些特定场景,并明确场景的边界,使得人工智能的优势能够在实际业务中得以发挥。


此外,还涉及非技术问题,例如当人工智能做出错误决策时,责任应如何划分。这是我们在使用人工智能辅助决策时需要认真考虑的问题。


Q 如何解决其中的“幻觉”问题?


林洲汉:幻觉问题确实是大模型发展中的一个重要挑战。我个人认为,这一问题的根源在于预训练阶段。目前,我正在研究通过新的预训练方式来解决这一问题。学术界的主流做法是通过后期的微调(SFT)或强化学习来缓解幻觉问题,但即便是大规模的微调或强化学习,仍无法彻底解决这


社会变革


Q 小镇做题家的学习模式会被AI淘汰吗?


林洲汉:首先,我认为中国现有的中考和高考机制是非常有效的人才筛选方式。可以说,全世界都找不到第二个如此高效的机制,它是断层领先的。因此,培养孩子的总体方向——即在统一化考试中取得好成绩——对于整个社会来说是正确和高效的,不需要有太多改变。


然而,在具体的学习方法上,可能会因为AI等先进工具的出现而发生变化。过去,学生在学习过程中遇到问题时,不得不等到下次遇到真人老师的时候请老师来解答;而现在,学生可以先向AI提问,看看它能否提供帮助。这种变化并不意味着传统教育方式的失效,而是为学习提供了更好的条件和更多可能性。


Q AI会成为哪些职业的刽子手?


林洲汉:这是一个很好的问题。目前的AI技术实际上只在非常少且特殊的情况下能够完全替代现有岗位。更多时候,AI技术的作用是加速某些工作流程。例如,过去写一篇文章需要完全依靠手动完成,而现在可能只需要写一个提纲,然后让AI扩充内容,再由人工修改。有了AI的帮助,写文章的速度会大大提升,但人在其中的作用并不会被完全替代。我们仍然需要有人来提纲挈领,指导AI往正确的方向写作。因此,我认为AI不会大规模替代已有的职业,而是会大规模提升工作效率。


Q AI的高阶应用存在门槛,这是否可能会加剧社会发展的鸿沟?


林洲汉:关于公平问题,我认为可以从两个方面来看。


首先是生产端,也就是开发和训练模型的这些人。对于他们来说,确实存在资源大规模向头部几家单位集中的情况。这种集中可能导致资源分配的不均衡,进而影响整个行业的公平性。


然而,从消费端,也就是使用模型的人的角度来看,情况却有所不同。过去,普通人可能无法接触到高质量的模型,但现在,许多优秀的模型已经可以被广泛使用。例如,过去我们需要请教专业的老师才能解决的问题,现在可以通过与模型交互来获得类似的效果。因此,生产端和消费端的趋势是相反的。


至于生产端资源大规模集中的问题,我认为这不仅仅是AI领域特有的现象。以美国为例,多年来,每个行业的资源也在向对应行业的头部几家大厂集中,向发达地区集中。这本质上是工业社会发展的一个趋势,而不仅仅是AI技术带来的结果。因此,所有工业化国家在工业化进程中都需要考虑这一问题,并且这一问题正变得越来越重要,亟待解决。


面对这一问题,我认为我们需要一些社会主义的机制,比如转移支付,来确保每个人都有一个保底的成长环境。通过不断完善机制维护公平的竞争,让每个人有机会脱颖而出,发挥自己的才能。


Q 在自动驾驶等情境中,AI是否需要对行为负责?


林洲汉:这同样是一个哲学问题,而非单纯的技术问题。从数据上看,在某些受限条件下的自动驾驶,其事故率已经低于人类驾驶员。但这并不意味着AI技术可以完全替代人类。因为当人类驾驶员发生事故时,可以找到具体的责任人,而对于AI,却无法找到一个具体的“人”来负责。


如果追究责任到机构,那么问题就变成了赔偿问题。然而,事故造成的人身伤亡是否仅仅是一个金钱数字?这实际上是一个更深层次的社会问题和哲学问题。


Q AI与人类的本质区别在哪里?


林洲汉:当前的大模型技术路线确实在学习方式上与人类不同。大模型主要依赖于大规模的自监督学习,例如预测下一个词这种简单任务,并结合有监督的微调(SFT)或强化学习等后处理步骤来完成整个学习过程。然而,人类并不存在像大模型那样需要处理几十TB数据的学习阶段。一个人从出生到成年,所能接触到的数据量可能仅相当于大模型在微调阶段接触到的数据量。因此,两者的学习机制存在根本差异。


此外,人类的学习还受到遗传因素的影响。人类大脑天然具有功能分化,这种分化是由基因决定的,并通过数百万年甚至上亿年的自然选择逐步进化而来。而当前的大模型是单一的模型结构,并未经历自然选择形成复杂的脑结构。因此,大模型的学习机制与人类通过自然选择和后天学习相结合的机制存在显著不同。


Q 人们是否在见证硅基生命“意识”的产生?


林洲汉:这是一个带有哲学意味的问题。我认为,AI的发展在足够长的时间后,一定会超越人类的智能,包括意识的实现,这只是时间问题。然而,目前的AI还远远谈不上真正的意识。甚至“意识”这一概念在机器学习领域中的准确定义都尚未明确。


目前的AI模型更多是通过与人类对话,让人感觉它似乎具有意识。它可能在某些方面表现出类似自主意识的能力,但“什么是真正的意识”这一问题,学术界尚未达成共识。因此,AI意识的实现可能还需要多个像ChatGPT这样的突破,才能让所有人认可“机器已经具备意识”。目前,我们还远未达到这一程度。


Q 人工智能是否是人类的最后一个发明?


林洲汉:我对所有类似的历史终结论观点都持怀疑态度。人工智能不可能是人类的最后一个发明。首先,目前的人工智能技术还远远达不到所谓的通用人工智能(AGI)水平。我们可能还需要许多个类似于Transformer和大规模预训练模型这样的重大突破,才有可能实现AGI。


其次,即使我们实现了AGI,仍然面临如何有效控制它的问题。就像可控核聚变一样,我们需要确保比我们更强大的智能体不会做出不利于人类的行为。因此,人工智能的研究将会持续深入发展,而不是止步于某个终点。


DeepSeek会是时代的破壁人吗?追问专访 | 上交大副教授林洲汉


科学使命


Q 您师从图灵奖获得者Yoshua Bengio,并作为海外高层次人才回到上海交通大学。这样的选择对您来说意味着什么?


林洲汉:这其实是一个非常常见的问题。每一位在海外工作的华人学者,在毕业时都可能面临这样的选择。我最早考虑回国是在2018年,当时回国的风潮还没有像现在这样流行。当我告诉别人我毕业后要回国时,几乎所有人的第一反应都是问我:“为什么要回去?”


对我个人而言,我从未计划在美国永久居留,未来终究是要回到中国的,只是时间早晚的问题。既然如此,我觉得不如早点回来。近年来,华人学者回国发展的趋势越来越明显,甚至逐渐成为主流。甚至我博士期间的一位非华人同学,最近也已经确定了要来中国发展。


Q 未来三年,如果有充足的资源,您会如何规划您的研究工作?


林洲汉:即使未来三年有充足的资源,我的研究方向依然会聚焦于大模型的自监督学习和基础预训练任务的研究。这也是我目前正在从事的工作。这一方向对资源的需求非常大,尤其是算力资源。目前,我们遇到的瓶颈主要是计算资源不足,需要更多的GPU卡来支持研究。


Q 作为一名AI科学家,您对刚进入这个领域的研究者有什么寄语?


林洲汉:对于刚进入这个领域的同学,我想提几点建议。首先,要打好数学基础;其次,要打好编程基础;第三,要具备批判性思维(critical thinking)的能力,有理有据地质疑你所见到的一切,并通过实验去验证。


此外,不要满足于发表一两篇论文,而是要有更远大的目标。要思考哪些科研方向未来可能成为颠覆性的突破,比如下一个大规模训练模型这样的方向,并将精力投入到这些领域。选择研究方向时要具备敏锐的眼光,不要把精力投入到incremental的研究中。


Q 很多追问读者从事的是人工智能相关的交叉研究,您对他们有什么建议?


林洲汉:我不敢说能给其他行业的从业者什么具体的建议,但我认为现有的AI技术已经足够强大,具备在其他各个学科的问题上发挥其优势的潜力。尽管我们大部分AI研究人员目前的工作是“纵向”的,也即不断挖掘更先进的AI技术,解决更深层次的问题。


但是另一方面,AI在其他学科中应用和落地的“横向”发展也非常重要。现有的AI技术如何应用于其他学科的问题,是一个非常值得研究的课题。我认为,未来这一方向可能会像井喷一样快速发展,关键在于如何找到好的问题,并利用AI技术去解决。


文章来自于“追问nextquestion”,作者“追问”。


DeepSeek会是时代的破壁人吗?追问专访 | 上交大副教授林洲汉

关键词: AI , AI访谈 , DeepSeek , 人工智能
AITNT-国内领先的一站式人工智能新闻资讯网站
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
cursor

【免费】cursor-auto-free是一个能够让你无限免费使用cursor的项目。该项目通过cloudflare进行托管实现,请参考教程进行配置。

视频教程:https://www.bilibili.com/video/BV1WTKge6E7u/

项目地址:https://github.com/chengazhen/cursor-auto-free?tab=readme-ov-file


2
AI代理

【开源免费】Browser-use 是一个用户AI代理直接可以控制浏览器的工具。它能够让AI 自动执行浏览器中的各种任务,如比较价格、添加购物车、回复各种社交媒体等。

项目地址:https://github.com/browser-use/browser-use


3
AI工作流

【开源免费】n8n是一个可以自定义工作流的AI项目,它提供了200个工作节点来帮助用户实现工作流的编排。

项目地址:https://github.com/n8n-io/n8n

在线使用:https://n8n.io/(付费)


【开源免费】DB-GPT是一个AI原生数据应用开发框架,它提供开发多模型管理(SMMF)、Text2SQL效果优化、RAG框架以及优化、Multi-Agents框架协作、AWEL(智能体工作流编排)等多种技术能力,让围绕数据库构建大模型应用更简单、更方便。

项目地址:https://github.com/eosphoros-ai/DB-GPT?tab=readme-ov-file



【开源免费】VectorVein是一个不需要任何编程基础,任何人都能用的AI工作流编辑工具。你可以将复杂的工作分解成多个步骤,并通过VectorVein固定并让AI依次完成。VectorVein是字节coze的平替产品。

项目地址:https://github.com/AndersonBY/vector-vein?tab=readme-ov-file

在线使用:https://vectorvein.ai/(付费)

4
智能体

【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。

项目地址:https://github.com/Significant-Gravitas/AutoGPT


【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。

项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md

5
AI搜索

【开源免费】MindSearch是一个模仿人类思考方式的AI搜索引擎框架,其性能可与 Perplexity和ChatGPT-Web相媲美。

项目地址:https://github.com/InternLM/MindSearch

在线使用:https://mindsearch.openxlab.org.cn/


【开源免费】Morphic是一个由AI驱动的搜索引擎。该项目开源免费,搜索结果包含文本,图片,视频等各种AI搜索所需要的必备功能。相对于其他开源AI搜索项目,测试搜索结果最好。

项目地址:https://github.com/miurla/morphic/tree/main

在线使用:https://www.morphic.sh/

6
微调

【开源免费】XTuner 是一个高效、灵活、全能的轻量化大模型微调工具库。它帮助开发者提供一个简单易用的平台,可以对大语言模型(LLM)和多模态图文模型(VLM)进行预训练和轻量级微调。XTuner 支持多种微调算法,如 QLoRA、LoRA 和全量参数微调。

项目地址:https://github.com/InternLM/xtuner