ChatGPT 人工智能 GPT4 伦理 生成式 医疗 监管 安全 机器学习 深度学习 神经网络 计算机视觉 强化学习 模型 算法 应用 开发 研究 工具 平台 框架 数据集 训练 部署 安全 合规 培训 投资 LLM,llm AI,ai,Ai 大模型 大语言模型 制图 生图 绘图 文生图 文生视频 生成式AI AGI 世界模型 sora chatGPT,chatgpt,ChatGpt claude openai Llama deepseek midjourney 红熊猫模型 Red panda,panda Stable Diffusion,StableDiffusion,stable DALL- E 3 DALL E DALL Flux,flux 扩散模型 混元大模型 文心一言 通义千问 可灵 Pika PixelDance 豆包 月之暗面 零一万物 阶跃星辰 搜索增强 MiniMax Talkie Agent prompt fastai LangChain TTS 微调 提示词 知识库 智能体
# 热门搜索 #
搜索
对话李彦宏:大模型进化变慢是好事,百度从来没对标过OpenAI
3706点击    2024-11-13 13:47

2024年11月12日,在“百度世界大会”期间,百度创始人、CEO李彦宏与硅星人创始人骆轶航、甲子光年创始人张一甲进行了一场对谈。以下是对话实录(确保书面阅读习惯,个别语句进行了再编辑,部分问答进行了删减):


为什么“应用来了”?


张一甲:过去一两年,人工智能是全行业很火的赛道和技术方向,每天我们都看到非常多的产品和技术进展,今年世界大会为什么主题定为“应用来了”?


李彦宏:因为我从去年开始不断讲,模型本身不产生直接价值,只有在模型之上开发各种各样应用,在各种场景找到所谓的PMF,才能真正产生价值。如果说2023年大家还在卷模型,让模型能力逐步地达到可用地步的话,那未来所谓的“可用”,就是真的有东西用,应用的“用”。


过去这一年,整个行业有比较多的焦虑。这个焦虑是:超级应用到底在哪里?创业者机会是什么?大家都在问这些问题。我是希望通过百度的努力,包括我们开发的工具或者我们探索的各种各样场景,能够给大家探出来路径,什么样的应用是基于大模型能够产生实际价值的。


今天百度世界大会之前,我觉得行业有比较大的困惑。到底应用在哪里?模型已经这么长时间,甚至有人觉得模型技术迭代速度已经慢下来了,但是超级应用没出现,那怎么办?所以当时就起了个名字,叫“应用来了”。我觉得,可以把我们的探索,我们的努力,我们的工具,我们找到的路径、方法分享给大家;也把别人在我们平台上做出来的有价值的东西,给大家介绍一下,这样可以让更多人找到自己发展的路径和方向。


基座大模型两年更新一代就够了,得让应用开发跟上


骆轶航上午听您百度世界大会的演讲,跟我们听到的很多演讲有很大的不同,我几乎没有听到两个词:一个词是AGI,一个词是Scaling Law(缩放定律)。不讲这两个词的AI类主题演讲和活动,几乎已经不存在了。但您真的没有讲,你对这两个词是不是有什么看法?是AGI太远,还是Scaling Law卡住了?


李彦宏:确实不是故意的。可能是它们没有跑到我心里,让我觉得说这两个东西足够重要,在百度世界上一定要提一提。AGI这个词,就像一千个人心目中有一千个哈姆雷特。我如果再讲百度怎么定义AGI,无非就是又增加了一种定义。即使跟别人不一样,也没有多大价值。既然主题是“应用来了”,咱就关注应用。至于说更加长期的东西,我们还是在沿着这条路在做。但把这些东西讲得更完整或者更深入,我觉得只对非常小比例的人有价值,更大比例的人只是多知道了一种AGI的定义,意义是不大的。


张一甲说到这儿,问一个大家心里面非常关注的话题。从ChatGPT上线以来,2023年业界不断有很多重要的模型发布,很多重磅的进展,每天被各种标题党和新闻给轰炸。但今年,首先是GPT5没有发布,而OpenAI发了GPT-4o和O1的模型,看起来可能是一个分杈树上的成果,或者是微创新成果。所以,我代表很多人,把心中的困惑问出来,大模型基础技术的进步是不是在放缓?


李彦宏:我觉得还是取决于你从什么角度看这个问题。如果我就当做一个学术项目,北极星指标就是『哪一年或者哪一月能实现AGI』。这个角度上讲,可以说技术进步的速度有所放缓。但我的视角更多是从应用角度看的,大模型的技术进步到底产生了什么应用。这个角度来说,我认为技术进步的速度不仅没有放慢,而且有变快趋势。


上午讲的消除幻觉,你想一下,过去幻觉现象非常普遍。现在不管用哪个AI助手,问一些相关的问题,比如,我问问这个酒店游泳池有多长?过去在网上搜索这个答案,其实是得找半天的。官网没有,携程或者某个用户评论区有这个信息,但你得找半天。现在大模型直接给你答案,这个答案能不能信呢?能信。就是因为像RAG这类技术的提升。


过去一年或者说两年也好,我认为大模型在迈向实用的过程当中,发展出来的能力,其实仍然在以一个比较快的速度增长,所以你能够看到我们今天看的调容量,上升那么快,为什么要调用,因为它有用,它在各种具体的场景当中产生了价值。


另外一个角度来讲,反而是基础模型不能够特别快的迭代。如果老在变,那做应用的人就无所适从了,该做什么我不知道,我刚做了两个月,你又升级了,把我做的冲掉了,白做了,我又得重新适应一遍新的规则之类的,我觉得可能两年一个大的版本是一个比较合适的节奏。


骆轶航:所以我们不能等,第一我们不能等模型进化到AGI的阶段再去做应用。


李彦宏:没有必要。


骆轶航:第二我们不能让应用开发的速度和模型进化的速度之间,产生了误差,这样的话会让应用发展不起来。模型进化是整个能力的进化,刚才张一甲讲了OpenAI的O1,O1是另外一个维度,是个深度思考的维度,这个维度本身对于做应用有没有一个更好的促进作用?


李彦宏:有意义,这个维度非常有意义。百度大概也是从去年第四季度开始,我们在朝这个方向做,我们没有把它叫做强化学习、O1什么。我们就说智能体,你可以注意到去年第四季度我们开始讲智能体,智能体有什么功能呢?有反思、进化、使用工具这些,这些能力都是今天O1努力的方向,这个方向和传统意义上大语言模型的方向确实不一样。


这是我刚才讲了,我们的开发者可能已经逐步适应了怎么在大语言模型上开发应用,突然你搞出来一个新的方向,又得适应一遍。其实我们也很希望大家赶紧适应这种新的思维逻辑,怎样慢思考,调用工具。但这有大家学习和适应的过程,今天虽然我们发了多智能体协作这些东西,你说让一个开发者开发一个多智能体协作的应用,其实难度还是很高的,成本很高,反应速度很慢,各种各样的能力怎么调用,有一个接受的过程。我很看好,但是我们得逐步逐步的让大家学习这种新的能力,接受然后再把它利用好。


骆轶航:基于百度AI能力开发智能体,提供了一套无代码工具,你们说的是“只要会说话,就能开发应用,不需要会编程语言”,只要你会讲中文和英文,理论上你就能开发应用和多智能体协作。这句话会不会多多少少造成误导,让大家觉得这个门槛真的已经降得很低了?其实在硅谷看到很多AI应用开发者,有的人在用不同的模型“调鸡尾酒”,有的人其实是在fine-tune一个小模型,是蛮复杂的事情,您怎么看我们目前对这个“会说话就能开发AI应用”的定义,和真正AI应用开发之间的距离?


李彦宏:这还是两个不同的track。在那些最复杂的应用场景,可能确实不仅要考虑应用,还要考虑模型的能力,还有刚才讲的模型精调,数据标注等等,确实大量大量的工作仍然在可预见的未来是需要的。但另一方面,也使得很多相对没有那么复杂的应用,在过去看来还不是那么容易的事儿,在今天看来,你不是程序员也好,花几分钟时间就能做出来了。


这一条赛道也是一个逐步发展的过程,我不希望大家有误解,明年一季度所有程序员能干的事儿你就全部能干了,不会这样一蹴而就的。但是它是非常非常有希望的赛道,我今天能够写两百行代码,一年以后可能能写两千行代码,再过三年可以写两万行代码,这个能力会逐步发展出来,那它会让更多人的创造性给激发出来。


Sora和多模态是两码事,百度当然做多模态


张一甲:我想聊聊今年另外一个比较火热的概念,就是多模态。年初Sora开始,多模态成为了今年为数不多的炸点,有非常多的公司冒出来卷Sora,这个事情百度怎么看?百度做不做Sora?


李彦宏:我觉得Sora和多模态是两个事儿。Sora本质上是在任意场景下的视频生成能力。这件事情有没有意义呢?非常有意义,与此同时又非常难。你想想它的本质是什么呢?本质是可以做到基本可以预测未来。我们今天看到这么一个画面,你可以预测到下一个10秒,这个画面变成什么样子。无人驾驶是一个特殊场景的视频生成,我现在开到这儿了,那我下一秒怎么开,会看到什么样的景象,如果你都能解决的话,那无人驾驶不用做了,都可以靠那东西,可以做出来。正因为是这么大的一件事儿,所以我觉得它需要很长很长时间才能够做出来。但是我们今天讲的多模态,实际上是解决另外一类型的问题。比如上午讲的数字人,不是纯语言模型,你生成的文字要用语音表达出来,语音表达的时候口型要能对得上,手势应该做什么,我如果转头了,侧面的图像能不能跟正面保持一致等等,看起来都是一个比较简单的事情,但是你仍然需要解决。靠任意场景下生成视频的东西,不一定能把这事儿解决得很好。


如果真的能够做到任意场景下视频生成,那可能要很长时间,而且成本很高。我要解决刚才说的这些东西,把这些简单的多模态东西解决了,就能够有很好的应用场景。我用简单的方法,就能够做到,那我为什么不呢?先把这些事儿解决了,让这个应用能够跑起来,这是我们的思路。所以外界有一种误解就是,百度不做Sora,就等于是百度不做多模态。我们非常非常看好多模态,我们也在多模态上有非常长期的多年投入,在真正有应用场景的地方,我们的多模态能力是非常强的。


张一甲:是不是iRAG就是百度走向多模态重要的一项基础技术?


李彦宏:是的,它是我们在开发各种各样应用过程中遇到的一个障碍,必须把障碍搬走之后,我才能再往前走。


骆轶航这是你自己发现的问题?


李彦宏:没错。


张一甲:面向我们想要的人工智能未来,是我必须要解决的问题,没有它我其他所有的应用,所有将来可能的图景都是过不去的,所以我必须要完成那个事?


李彦宏:是这样的。


张一甲:今天你非常详细地讲了iRAG,它是一项基础技术,接下来iRAG准备怎么用?往哪个APP上用?还是以什么样的形式走向终端应用?


李彦宏:终端应用应该是大家群策群力,每个人根据自己的实际需求,已经了解的场景,怎么更好地使用它。我能够想到的,其实今天举了不少车的例子。车这个行业你们非常清楚,很依赖市场推广,他们在做市场推广的时候非常非常讲究。如果出一款新的车型,我要拍摄非常漂亮的画面,照片也好,视频也好,要花很多钱。拍一张车的图片,最少得几千块钱,上万块钱;而它要拍好多张图片,还要拍视频等等。过去要五千块钱做的事儿,现在五分钱就能做出来,如果能做出来就可以大量做。


今天的例子,车飞越长城,那个东西不可能靠拍摄的,车飞不起来。但是车飞起来的话,好看不好看?确实好看。在这种市场宣传的场景,非常有用。我既要保持车该有的东西必须得有,不变的东西不能变,但是它又能够放飞人们的想象,真正有创造力的故事情节能够出来,那肯定会更吸引人。所以,在几乎所有的创作场景,iRAG都非常有价值。


杀死大模型幻觉和智能涌现的矛盾能解决


骆轶航:iRAG代表了我们对于多模态和生成内容本身,另外一个维度的考量,不是炫技的维度,而是现实被什么人用到的维度。它生成的图片精准可控不用再修改,真正降低人们使用它的门槛和成本。今天上午,你有一个非常重要的论断,就是过去两年大模型基本上消除了幻觉。可是幻觉有的时候是涌现的伴生品,那么消灭了幻觉,会不会杀死了进一步涌现的能力?


李彦宏:这就需要我们这些从业者不断的创新,我既要消灭幻觉,还要能够保持你的涌现能力、创造力。其实国外很多人讲,基础模型将来能够具备诺奖获得者的智力水平,那是极大的创造力迸发,这确实是努力方向。但与此同时,它的这种副作用,就是幻觉要能够控制。


张一甲:技术的角度来讲,让它减少幻觉变得非常精准,和它给我们带来很多的想象力,这两个事情本质上是矛盾的吗?


李彦宏:有一定的矛盾,但它是可以解决的。我觉得至少是可以逐步解决的。我遇到问题的话,总会想办法。我希望鼓励什么东西,我在这方面要加强,不鼓励什么东西,要用其他的手段去进行控制。


我不是彻底的AI现实主义者


骆轶航:中国AI有两派人,理想主义者和现实主义者,理想主义者追求模型的不断进化和进展;现实主义者更重要看用到模型的能力做了多少具体的事情。您今天的演讲没有AGI和Scaling Law 这样的大词,没有基座模型的进展,甚至不提文心一言和文小言,完全围绕着应用。我想知道您是从哪个时间点开始越来越倾向于变成一个AI发展的现实主义者了?


李彦宏:其实讲模型能力,我也可以讲一个小时甚至时间更长,我也不认可自己就是纯AI现实主义者。我们没有讲的,并不表明我们没有做。事实上,我很多的研发资源还是投在了外界看来基础的能力或者理想主义者看重的东西。我们在做,我们不断地在这方面加大投入、付出努力。我只是觉得,没有必要把这些只有极少数人才能够听得懂或者说才会appreciate的东西到处去讲。我需要倒出去讲的是,更多的人,几千万人,几亿人确确实实能够用得到的东西,我希望多讲。



张一甲:整体呈现的画面是,我需要为更多人解决问题,所以世界大会听下来,百度变得非常务实。而且你的演讲风格变得非常具体,不像很多我们看到的,大家谈一些想象力,谈很大的命题,比如像文明、终极的人和机器交互。相比较来看,百度抛出了非常具体的case和具体做的事情,把想象中的未来,非常清晰地一个模块一个模块白描了出来。今天你有一个很大的篇幅讲智能体、自由画布,现场看大家很兴奋,自由画布这个idea怎么诞生的?它是百度对于多模态应用的一种终极的想象吗?


李彦宏:其实还是基于需求。这个事情最早是因为百度有一个产品叫文库,文库最早是找现成的文档,并不是做生成的。在生成式人工智能技术出现前,文库已经出现了。但是当有了生成式AI,我们发现人们最根本的需求,不是找一个现成的文档,而是为了创作自己的内容。


我们怎样能够基于现成的文档,或者哪怕没有现成的文档,能够让他更好的创作,这条路走下去就是最早文库的重构。后来我们又发了单独的产品叫橙篇,现在又推自由画布,是一步一步基于让人们能够更加方便地创作内容,或者说也不仅仅是创作,是communicate your ideas,心里怎么想的,你怎么能够把它更方便,更准确的表达出来。过去人们觉得说,我有一个office就可以了。我心里怎么想的,怎么落到纸面上,不管语音也好,图像、文字也好。这个过程,我们怎么enable这些用户,做这些事情。


张一甲:自由画布这个idea什么时候出现的,什么时候我们把产品形态构想成这样子?


李彦宏:时间不长,三四个月之前。


骆轶航一般人家说巨头,比较大的公司做AI创新,最大的负担是它的legacy,创业公司能够没有负担的往前跑,但自由画布今天出来以后,大家反应还是挺热烈的,但这个东西恰恰是建立在百度的legacy基础之上,因为我们有百度文库,所以你怎么看我们过去的一些积累?无论是深度学习还是产品上的积累,其实对我们现在掌握用户需求,做用户真正关心的AI应用,这个事儿上帮助是什么?这个其实是大家之前很少探讨的,我们内部思考过这个问题吗?


李彦宏:根本原因还是到底信什么?一旦你从这个视角考虑问题的话,都很好解释了。百度信AI,不是今天才信,也不是两年前信,是十几年前就信这个东西。所以文库的改造也好,或者说非常坚决的做一些在大家看来是全新的东西,或者说没有太受legacy的束缚。更或者说,我们真正的legacy就是我信AI,一旦你把这个东西当成legacy,这些东西其实就都很好解释,我就是在做我多年前一直想做的事。


骆轶航:对,十多年一直想做的事情。


超级应用不是没有,而是时候未到


张一甲百度应该是国内最早做AI的,是人工智能的扛旗者。下一个聊聊“超级应用”。去年开始,我们都不断地在畅想或者期待,能够出现一款超级应用。但是为什么今年并没有出现超级应用?


骆轶航:本来就不该有吗?还是说还没出来?


李彦宏:第一,我先说不是说不会有,我认为会有,只是现在时机没有到。之所以大家觉得该出来了,但是还没出来,是因为大家很容易拿这波生成式人工智能和上一波移动互联网或者上上一波PC互联网相比。说那个都是火了几年以后,我们就已经比较明确的能够看到超级应用的出现。但其实你注意到,当生成式人工智能起来的时候,我们对外一直讲这是一场新的工业革命。如果你看作工业革命的话,应该回去比较,当时电力革命发生的时候,这个超级应用是什么?过了多少年出来的?当时蒸汽机革命出现的时候,它的超级应用是什么?是怎么出来的?那些东西可能更具有可比性。


骆轶航它不是长在一个设备上的一款APP或者一个软件,可能是更基础设施的东西。


李彦宏:没错。


百度从来没对标过OpenAI


骆轶航您刚才讲,基座模型不能太快速迭代,应用开发者跟不上。这是我第一次听到类似于这样的观点。我想到的是OpenAI。它一方面给开发者提供了一些工具和API,一方面不断推进模型往前走,杀死一批创业公司,以至于现在看到的唯一有超级应用影子的AI应用,就是ChatGPT。所以我们现在能不能讲,百度完全不想做另一个OpenAI?


李彦宏:说实话没有想过这个问题。


张一甲:是不是百度从来没有把OpenAI当做自己的对标?


李彦宏:没有。


骆轶航:但是模型本身上会拿它当做参照。


李彦宏:对,我们还是很关注它在做什么事情,但确实没有想过,要不要成为它。


张一甲:基因角度讲,百度也从来不是OpenAI?


李彦宏:不是。这并不表明,我们是一个纯粹的现实主义者,其实我觉得我们也挺理想主义的。当你的梦想是让几亿人、十几亿人都具备程序员的能力,这个又需要很多年大手笔投入的时候,这难道不是一种理想主义吗?


骆轶航:对,长期的理想主义。


你上哪找那么多智能体?还是得用搜索


张一甲:你把一个工具做到了千家万户,让所有人都可用,本身也是一个巨大的蓝图和理想。关于应用,我再问一下,之前我看到你的对外分享提到,从Copilot到Agent,到AI worker,智能体会是AI应用的终极形态吗?还是过渡阶段?


李彦宏:这个问题应该放在时间线的坐标轴上看,拉长这个时间线的话,肯定Agent是过渡形态。但是这个过渡形态我的判断会持续比较久的时间,即使是AI worker出现以后,它跟智能体还是会长期并存的关系,有些东西可以完全自动化了,有些东西还是需要通过人和AI或者说跟虚拟人的协作来完成,还是分不同的场景。


张一甲:我联想到一个问题。因为百度作为一个大的平台,当我们看到智能体的时候,你知道它依然存在怎么激活,换句话说,存在一个分发和流量入口的问题。那在未来像百度的搜索,还有你今天列出这么多智能体,还有其他百度现有的产品矩阵,在流量的入口角度,可能会是什么样的情况?比如一个普通用户在接触百度AI产品的时候,我的典型体验可能是什么样子的?他们之间会不会有流量争抢,竞争的关系?


李彦宏:我们想象的分发的机制或者流量入口,比较类似于现在的百度搜索。在百度里搜相应的词,你出来就有可能是一个智能体,你跟这个智能体,就像跟一个律师在线问答一样,可以进行很多轮的互动,我们看到有好几十轮的互动,有一个用户跟AI的智能体不断地问。


骆轶航:搜索公司是不是更容易做好AI智能体和很多更好的AI应用的框架?


李彦宏:应该是。大语言模型跟搜索本身很近,我们搜索一直在处理目前语言文字的东西,这是为什么我们可以很快推出来文心一言。另一方面,你有那么多智能体的时候,还是说怎么能够跟人的需求高效的匹配起来,人有了这种需求以后,上哪儿接触到这些智能体,最高效的连接还是一个搜索。


张一甲:这里面会存在一些商业顾虑吗?比如由于很多智能体的存在,让我们原有的商业搜索蛋糕被稀释了,有这样的隐忧吗?


李彦宏:没有,我觉得现在根本没有必要考虑对现有商业模式的冲击,因为你一旦打开了更多的可能性给自己的用户、给自己的客户,创造了新的价值的时候,你总能找到新的商业模式。我今天展示的调用量的图,你想想如果调用收费的话,那这种涨法是可以收到很多钱的。


骆轶航:把价格再压下来95%,再收钱,还是收上来很多钱,这是现在API收费还能跑得通的原因,我们会有非常陡峭的调用曲线的上升。


李彦宏:没错。


骆轶航:比起很多同行,文心一言并不是API降价上非常激进的玩家,是什么导致了文心大模型最近两个月调用量的陡升?


李彦宏:其实我们价格非常有竞争力的,甚至有些模型是大家可以免费调用的,相当于算力送你了,更重要的是,可以说是开发者群体的觉醒,他逐步意识到了可以用模型来做出什么应用来,这是为什么我们今天强调“应用来了”,当过去一开始曲线相对没有那么陡峭,相对那么平的原因是因为绝大多数人还不知道大模型能做什么,一旦它知道了之后,那需求其实是足够旺盛的。


骆轶航:所以这个曲线也不仅是针对百度和文心大模型的,是针对整个行业的。


李彦宏:对。


解决AI问题,用工程的方法不丢人


张一甲:人工智能是一个大的概念,里面涉及到的技术门类和产品迭代的方向又非常多,作为百度的掌舵者,每一天面对这么多的进展,你的底层思维是什么?怎么决定做什么、不做什么?取舍过程中,有没有背后思考的第一性原理?


李彦宏:就是应用驱动。这个和美国很多公司做法很不一样,美国很多公司一直都是梦想说我要做颠覆性的技术,我要多少年之内做成什么什么样子。我更多希望尽早接触场景及接触应用,看在这个过程当中,到底遇到了什么问题,把这些问题带回来,我们综合一下,看大家遇到的最多的问题,就是我们优先解决的问题。


骆轶航: 其实我们是在用产品的思路和工程的思路看待模型驱动应用的这个事情,而不是在攀登技术演进的珠穆朗玛峰上寻找答案。


李彦宏:很多美国同行,他们做法是当做一个science(科学),我有一个终极目标,就想尽各种办法解决它,我们这边当做我要解决的问题,这个问题可能用工程的方法也可能用其他的方法、用数据这些驱动,最后解决下来。但是你看现在诺贝尔奖都授给公司CEO了,为什么呢?很多非常有意义的,即使是从science的角度很有意义的事,最后是靠工程的方法解决出来。所以做工程不丢人,做工程很有可能是比科学更早发现机会、发现规律的。其实飞机也是,飞机先飞上天了,人们才开始研究,原来有一个东西叫空气动力学。


骆轶航:您认为科学家现在应该在一个AI公司里面,它真正扮演的角色应该是什么角色?驱动的角色、还是辅助的角色、还是什么环节的角色?因为我们现在看到了,这两年以来,无论美国还是中国,无数科学家在创业,无数科学家在离开创业公司,我们认为教授、科学家应该在这个体系中扮演什么作用?


李彦宏:我觉得科学家应该提供的是vision,他应该看的比工程师更远一些,你看这一轮大语言模型的爆发,其实背后的vision是什么?就是你刚才讲的Scaling Law,有人看到了,我只要加算力,我只要用更多的数据来train这个模型,就会出现智能涌现,他是先有了这样的想法,才去做这些事儿的,这些事儿从一个角度想,之所以越来越多的教授创业或者是加入更大的公司去,是因为你创业能够拿几亿美金,你在学校拿那些东西就几百万美金,全美所有的大学加起来,涌现不出一个GPT3.5。在大厂里头,几万片,甚至十万片的东西已经出现了,在这么大规模上去做,显然比别人更早的知道,未来是什么样子。这些年技术发展可以说是新的特色,不光是一种想法,刚才讲了vision,要跟资源相结合,我只有有这么多资源的时候,我才能证明这个想法到底是对的还是错的。有些人感兴趣的是相对比较science的东西,没问题,有价值,有些人感兴趣的是,怎么在市场当中找到一个创造价值的地方,我觉得也是需要的。这个世界就应该这么多样化,大家不同的人有不同的爱好,不同人有不同的信仰,最终才是有意思的世界。


AI是一次新的工业革命,不会三五年就结束


骆轶航:行至尾声,我们聊一些轻松的议题。Geoffrey Hinton得诺贝尔物理学奖的那一天,我们忍不住把一篇讲Hinton差点加入百度的老文章翻出来重新发了一遍。Hinton差点加入百度,然后Anthropic的创始人Dario Amodei在百度实习过。


李彦宏:他(Dario Amodei)是百度正式员工,Jim Fan在百度实习过。


骆轶航:对,Jim Fan在百度实习过,Dario Amodei是百度的正式员工,Andrew Ng也曾经是百度非常重要的科学家。


李彦宏:对。


骆轶航:所以你会发现,在全球的机器学习和人工智能领域,十年之前到现在,在几个时间点上扮演一个非常有意思的角色,这个问题的延伸有两个,一个是如果这些人现在都在百度,百度是个什么样的公司?很少有公司像百度这样,一个中国公司在全球的AI发展人才节点,资源节点和技术节点扮演过这么一个角色,百度未来还能不能再继续扮演这个角色?


李彦宏:其实这个事也蛮有意思的。网上你们也看到了,像Geoffrey Hinton,他后来选择加入了Google,不是因为我们不愿意出更多的钱,而是他自己更愿意在美国呆着。但是因为他没有来呢,我们还是想要真正的大咖,能够加入百度,所以后来就找了吴恩达,就是Andrew Ng,吴恩达来的理由其实也比较简单,他当时在Google,做Google Brain(谷歌大脑),想买更多的GPU,Google说不行,太贵了。我们说你来,随便买,那他就来了。他来了之后,像Dario Amodei,他原来是斯坦福的学生,Dario Amodei来了之后说Jim Fan不错,我招他来实习。


所以一代一代的人,就把优秀的人才能够吸引过来,当然这些人后来阴差阳错,后来又离开了百度,我觉得也没问题,人才的这种流动对整个行业是健康的,他找到他的下一站,对于百度来说也培养了一批非常优秀的人才。外界因为某一个人离开会有报道,但是这个人如果在这呆着的话,他就没有报道,并不是因为这个人不优秀,其实目前在百度内部做AI的有很多很多人,是非常非常优秀的,只不过因为他们没有离开,所以外界不知道,外界没有报道。


所以对于我们来说,一方面好多公司的创始人是百度出去的,有不少互联网公司的CTO是百度出去的,其实我很高兴,这意味着我们既给社会做了贡献,又树立了百度的技术品牌。今天一个校招生加入百度会想,这个人是从百度出去的,这个人在百度做了什么事情,他会想在百度能获得什么样的学习成长机会,所以对于我们吸引新的优秀人才,我认为是很好的事情。这些人反而是在百度能够踏踏实实做事,能够做出来东西的。我觉得更年轻一辈的,现在还没有出名的那些人,是真正我们最宝贵的财富。


骆轶航:百度怎么在整个全球AI格局中,更加体现它的技术前瞻力?这件事越来越难了,因为我们是一家中国公司。


李彦宏:总是有解法的。中国毕竟有14亿的人口,中国本身就是一个很大的市场,中国人总体来讲对于先进技术其实是欢迎的,是愿意接受的。有了这样一个环境,我们总是可以做出很多创新的。


张一甲:在我们今天这个节目的结尾,对我们所有在关注百度世界大会和关注人工智能方向的朋友们,你有没有什么总结、寄语给大家分享?


李彦宏:其实我还是想说,人工智能很像是一次新的工业革命,这意味着它不是三五年就结束,不是一两年就出现“超级应用”的过程,它更像是三五十年对于整个社会的方方面面一个非常彻底的重构。在这个过程当中,我们既需要耐心,又需要大的投入,同时需要不断的传播这种火种,让越来越多的人,越来越多的组织和公司,能够理解这件事情对他们的意义,并且很好的利用这些新的技术能力,给自己的组织、自己的公司创造出来更多的价值。


骆轶航:需要长期主义、理想主义和现实主义的三结合。


李彦宏:对,三者结合。


文章来自于微信公众号“硅星人Pro”,作者“ 骆轶航”


AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
数字人

【开源免费】Fay开源数字人框架是一个AI数字人项目,该项目可以帮你实现“线上线下的数字人销售员”,

“一个人机交互的数字人助理”或者是一个一个可以自主决策、主动联系管理员的智能体数字人。

项目地址:https://github.com/xszyou/Fay

2
智能体

【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。

项目地址:https://github.com/Significant-Gravitas/AutoGPT


【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。

项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md

3
RAG

【开源免费】graphrag是微软推出的RAG项目,与传统的通过 RAG 方法使用向量相似性作为搜索技术不同,GraphRAG是使用知识图谱在推理复杂信息时大幅提高问答性能。

项目地址:https://github.com/microsoft/graphrag

【开源免费】Dify是最早一批实现RAG,Agent,模型管理等一站式AI开发的工具平台,并且项目方一直持续维护。其中在任务编排方面相对领先对手,可以帮助研发实现像字节扣子那样的功能。

项目地址:https://github.com/langgenius/dify


【开源免费】RAGFlow是和Dify类似的开源项目,该项目在大文件解析方面做的更出色,拓展编排方面相对弱一些。

项目地址:https://github.com/infiniflow/ragflow/tree/main


【开源免费】phidata是一个可以实现将数据转化成向量存储,并通过AI实现RAG功能的项目

项目地址:https://github.com/phidatahq/phidata


【开源免费】TaskingAI 是一个提供RAG,Agent,大模型管理等AI项目开发的工具平台,比LangChain更强大的中间件AI平台工具。

项目地址:https://github.com/TaskingAI/TaskingAI

4
免费使用GPT-4o

【免费】ffa.chat是一个完全免费的GPT-4o镜像站点,无需魔法付费,即可无限制使用GPT-4o等多个海外模型产品。

在线使用:https://ffa.chat/

5
无人直播

【开源免费】VideoChat是一个开源数字人实时对话,该项目支持支持语音输入和实时对话,数字人形象可自定义等功能,首次对话延迟低至3s。

项目地址:https://github.com/Henry-23/VideoChat

在线体验:https://www.modelscope.cn/studios/AI-ModelScope/video_chat


【开源免费】Streamer-Sales 销冠是一个AI直播卖货大模型。该模型具备AI生成直播文案,生成数字人形象进行直播,并通过RAG技术对现有数据进行寻找后实时回答用户问题等AI直播卖货的所有功能。

项目地址:https://github.com/PeterH0323/Streamer-Sales