ChatGPT 人工智能 GPT4 伦理 生成式 医疗 监管 安全 机器学习 深度学习 神经网络 计算机视觉 强化学习 模型 算法 应用 开发 研究 工具 平台 框架 数据集 训练 部署 安全 合规 培训 投资 LLM,llm AI,ai,Ai 大模型 大语言模型 制图 生图 绘图 文生图 文生视频 生成式AI AGI 世界模型 sora chatGPT,chatgpt,ChatGpt claude openai Llama deepseek midjourney 红熊猫模型 Red panda,panda Stable Diffusion,StableDiffusion,stable DALL- E 3 DALL E DALL Flux,flux 扩散模型 混元大模型 文心一言 通义千问 可灵 Pika PixelDance 豆包 月之暗面 零一万物 阶跃星辰 搜索增强 MiniMax Talkie Agent prompt fastai LangChain TTS 微调 提示词 知识库 智能体
# 热门搜索 #
搜索
对话百度云沈抖:大模型产业落地第一,百模大战终局将至?
3444点击    2024-09-27 10:54


有生之年,AGI大概率会实现。


自工业革命以来,人类的科技进步,每天都在加速。 


电机发明到电成为基础设施用了90年,互联网发明到成为基础设施用了30年;云计算从技术探索到广泛应用用了将近20年时间,而智能手机只用了不到10年。

 

而在过去短短20多个月内,大模型更是以令人咋舌的速度席卷全球,人类历史上几乎从来没有如此迅速的技术共识收敛。 


百度集团执行副总裁、百度智能云事业群总裁沈抖告诉36氪,两年之内,大模型已经展现出了超过过往所有创新技术起步阶段的落地广度和深度;今年不仅百度大模型落地速度明显加快,整个行业为大模型招标、买单的客户数量与商业规模,都比去年大了很多。 


无论是AI乐观还是悲观派,无人能够否认,AI技术在21世纪的成熟对于人类科技进步而言拥有着划时代的意义。根据Gartner今年8月发布的“2024年新兴技术成熟度曲线”来看,生成式AI距离生产成熟期只有2-5年的时间,大模型的产业落地非常快就会扑面而来。 


根据公开数据统计,2024年1-8月份,国内大模型相关中标项目数量达到475个,约是2023年全年大模型中标项目数量的5倍,堪称爆发式增长。其中,有超过半数的央企正在使用百度智能云进行AI创新,实现了中标项目数、中标项目金额、行业覆盖数、央国企中标项目数的“四个第一”。 



在千帆大模型平台上,文心大模型日均调用量超过7亿次,累计帮助用户精调了3万个大模型,开发出70多万个企业级应用。覆盖工业、能源、政务、交通、金融、医疗、汽车等几十个行业。 


9月25日,2024百度云智大会正式举办。大会上,百度智能云带来了算力、模型、AI应用的全面重磅升级,涵盖百舸AI异构计算平台4.0、千帆大模型平台3.0两大AI基础设施,以及代码助手、智能客服、数字人三大AI原生应用产品,并公开了一系列最新产业落地成果。 


在中国聊大模型,百度是个绕不过的话题。 


大模型究竟是遇冷还是升温?B端客户选择大模型时,关注的重点究竟是什么?最适合C端大模型落地的应用领域有哪些?大模型时代,云服务的业务体系是否发生了根本性改变?百模大战的终局究竟是什么? 


围绕这些备受行业关注的话题,2024百度云智大会期间,百度集团执行副总裁、百度智能云事业群总裁沈抖与36氪CEO冯大刚进行了一场深入的对话,试图为这火热而迷茫、坚定却焦虑的大模型时代,提供一份百度的解法。

 


以下为对谈观点摘录,经整理编辑:


“大模型今年的落地速度更快了”


冯大刚:去年大模型出来大家都很兴奋,感觉历史在发生,将会改变我们很多行业和社会。那时候行业狂热地希望它尽快落地,但今天感觉声音好像变小了一些。所以现在大模型落地到底是变冷了,还是保温、加热、加速? 


沈抖: 过去这一年的变化符合每一个重大技术落地过程的正常认知,很多东西刚出来的时候肯定是非常喧嚣,总是要有一个落地的过程。但其实今年的落地速度更快了。今年通过跟客户的交流、沟通以及落地过程我们发现,比去年这时候,客户对它的理解和落地的推动决心其实比以前强大多了。 


去年的时候,我们确实觉得这个东西一下子就起来了,这个确实跟以前大不一样,但怎么用、用到哪儿去都没有想清楚,大家只是在叫好,根本没有叫座,更多是尝鲜的过程,业务、生产结合起来的相对比较少。 


我现在的信心比去年更强,今天跟大家聊的时候是大家出钱要把它用起来,而不只是看热闹、凑热闹。百度在商业化落地情况比较好,其实不光是百度,整个行业,今年为大模型招标的、买单的数量,以及招标的商业规模,比去年大了很多。 


冯大刚:经历过互联网低谷期和高峰期的公司,经历这一波大模型的感受是不是不一样? 


沈抖: 经过了PC互联网、移动互联网,我觉得大家对互联网的整个商业模式端到端的思考更多了,对它拉长周期的思考更多了。大家当然希望快速变现,但我觉得也能容忍需要花更长时间,因为它确实是一个长期建设的过程。而且经历了移动互联网一窝蜂的上来,再潮水退去的过程以后,真正心里有底的企业反倒是更淡定了,愿意去看整个周期的。 


冯大刚:好像第二次生小孩,知道他一定会在1-2岁的时候会学会说话,今天不会,但早晚一定会,一定会在某个时候开启数学思维,心中有一定的经验。 


沈抖: 这个例子挺好,很多大厂或者专业人士,他们经历了以往的那些周期以后,反倒这次看的更淡定,对未来信仰更坚决。现在“百模大战”里面很多人有可能没有经历这样的周期,更焦虑一些,这本身是一个很正常的事情。 


冯大刚:我手里有一组数据,今年1-8月,国内市场大模型中标项目可统计金额约15.35亿元。百度中标大约1.3亿元,中标30个项目,覆盖10个行业,这个数量是大模型厂商之首。同时今年5月份的时候有一个数据,说国内98家央企中有一半以上使用了百度云的AI服务。你觉得百度为什么能做到第一?客户最在意什么? 


沈抖: 这是很好的问题,首先这些央国企都是非常成功的企业,他们这时候选择大模型,选择大模型相关的基础设施,肯定不是因为一时脑热,而是经过了深思熟虑的,跟自己的产业发展做了充分规划之后的决定。这件事印证了刚才我们讨论的第一个问题,企业真正把大模型用起来的决心比以前是变大了。 


在这个过程中大家之所以更倾向于选择百度,有几个原因,其中一个非常重要的原因是:大模型对很多企业来讲是基础设施,是影响它未来很长一段时间发展的一个投入,是跟他们接下来战略规划紧密相关的,所以这时候一定要选一个靠谱的,能做得下去、可持续的企业。对百度来讲,百度在AI领域是长期投入的,大模型这件事本身跟百度业务紧密相关,无论是搜索还是云业务,都是紧密相关的。百度在这上面投入决心足够大、足够坚定的,所以一个央国企选的时候肯定要选一家有能力、同时要走下去的企业。 


第二个,百度在这方面有比较强的先发优势。去年3月16日百度发了文心一言,那时候在全球互联网大厂里面是第一个发布类似ChatGPT的产品,这个也不是看别人做,第二天就做出来了,是好多年积累以后,到了这个时间自然而然也就推出来了。这些技术积累、这些先发优势也很有帮助的。 


第三个,因为有了这些优势、有了这个决心以后,百度在自己的内部产品里面大量做了AI升级,之前李彦宏先生有一个说法叫“重构”,用大模型把所有产品重新做一遍。这个过程中我们积累了很多经验。我们拿着这些真实经验跟客户去聊,说你这个场景里面应该怎么用的时候,他们一听就能知道你是真干过的还是没干过的,所以这些肯定也坚定了他们的信心。所以,无论是选一个靠谱的可持续的公司,还是百度的先发优势、实战经验,跟客户沟通下来以后,客户是能看出来选择哪个好。这是重要的原因。 


冯大刚:去竞标的时候一般最常碰到的对手是谁,打败他们或者说服客户最好的话术是什么? 


沈抖: 现在市场上百模大战鱼龙混杂,经常遇到不同的友商。不要说大模型这么火,更冷门领域也是这样的情况。大模型这件事,刚开始没有很好的标准。我今年信心比去年更强,有一部分是因为去年跟客户聊的时候,选什么模型很难,客户会认为榜单第一是最厉害的。今天跟客户聊,客户已经不关心这个事,他们关心的是你们有什么样的成功经验、做过什么案例、在我的场景里怎么用起来、能帮到我什么东西。今天客户对大模型的认知成熟多了,客户要的是成功案例,他要的是你可持续的发展、要的是你的经验,少让我走弯路,这些综合起来以后,再去跟客户聊的时候就知道怎么跟他讲了。 


冯大刚:听起来好像是滚雪球的过程,某种程度来说案例越多,获得正反馈越多,第一名优势很难被动摇,因为会越来越明显。 


沈抖: 我认为是这样的。刚才讲的是经验积累,实际上雪球是从哪儿滚起来的?是从百度内部开始滚起来的,百度内部也是一个业务用了,就会有更多业务用,外面发现你百度用了我也可以考虑了,别的客户也落地了,我接着去做,这个雪球是这么慢慢滚起来的。 


冯大刚:有点像亚马逊的逻辑,亚马逊的云一开始也是自己内部用,后来慢慢变成一个全球的标准。 


沈抖:对,这个确实是,尤其大模型更是这样一个特点。做大模型的人如果自己都没有用起来,本身很难证明这个大模型的价值。更何况百度这些业务场景跟大语言模型是高度契合的,这时候把它给用起来也是很顺畅的一件事。


百模大战可能很快会结束


冯大刚:在我印象中,百度是唯一一家公布了自己AI收入的大厂,在Q2收入中智能云同比收入增长14%,AI收入占比提升至9%,上个季度是6.9%,两个季度环比来看增长非常快,环比50%的增速,你是怎么界定AI收入的? 


沈抖: AI跟GPU相关,GPU跟CPU是两种不同的算力范式,跟GPU云相关的一些收入,包括底层GPU相关的IaaS、大模型相关的Mass,再到上面的应用,反正跟GPU跟大模型相关的这系列收入我们定义成AI相关的收入。

 

冯大刚:利润怎么样? 


沈抖: 我们一直在讲智能云,过去一段时间实现了智能云的盈利,而且整个在不断改善过程中。大模型这一块我觉得应该这么来看,分成不同的层。最下面的IaaS层是跟算力相关的,收入增速很快,它的利润情况也很好。中间的MaaS层比如大模型调用这些,难度确实大一点,这个在市场培育过程中需要逐步地去引导。从调用的量来讲增速很快,文心大模型现在每天的调用量已经超过了七个亿,增速很快,但这一块市场我认为还没有进入一个理性的阶段,大家还都在疯狂卷价格的阶段,没有真正地把大模型的价值体现出来,这时候这部分收入也在高速增长,但是肯定不是讲利润的时候。最上面基于大模型来做应用,就能体现出大模型的价值,这时候这个客户愿意为价值付费,那么又有好的利润情况。 


冯大刚:这个分层非常有意思的分法,看一层一层的利润和收入。如果说今天最核心的收入或者最大的收入增长来自于算力层,它说明了什么问题? 


沈抖: 我们现在看用到GPU算力的,不纯是大语言模型的客户,GPU为了支撑上面的深度学习或者尤其是基于Transformer这种的深度学习,其实应用场景是比较宽泛的。我们IaaS这些客户,尤其是用我们百舸智能计算平台的,真不只是大模型客户,在高校、央国企里面应用面是很宽的。因为大模型的出现,让它变得更显性了、更火热了,但实际上即使没有今天的大模型,这种对GPU算力的需求在两年以前我们已经看到这种增长趋势了。所以,这个是比大模型本身更宽泛的智能化需求。 


应用上,现在大模型本身还是在一个混战阶段,无论是客户的选择还是模型的供应方都还没有把市场理的特别清楚。正是这个原因,现在有些客户其实已经从大模型的使用上获利了,而且获益应该还不少。但是只是因为这个市场太混乱了,还在“卷”,他们是真正的受益方,而模型厂商为之买单。所以大模型的价值是在的,但从价格上没有体现出来。而且这种例子还不在少数。 


另一方面,IaaS层实际上的技术门槛很高,现在同样规模的一个集群出来,这些GPU都是那么贵,集群如果不能有效跑,放在那儿就是烧钱,谁把利润率提上去谁就有竞争力。正是因为这些原因,一些客户选择百度不是因为百度的价格低,而是他看完以后觉得百度云这个集群上面真的把文心一言这样的大模型训练出来过,百舸能让训练效益提升上来,我用你的机器不浪费,那我愿意最后选你,你的稳定性、可持续性这些都强。 


冯大刚:“用你的机器不浪费”是个什么概念? 


沈抖: 现在大模型训练的时候是一个齐步走的过程,整个任务是要并行去训练的,如果有一台机器、一张卡出了问题,整个集群都得停下来,回滚到上一个记忆点重新开始,这中间过程就浪费了算力。这个事情非常常见,Meta训练Llama3的时候,用了1.6万张GPU卡的集群,平均每3小时就会出一次故障。 


所以这里面有一个很核心的概念,就叫“有效训练时间占比”,一台机器在这儿跑着,有效的工作时间占比到底是多高?百度万卡集群能够做到99.5%,在业界里面真正去看,我估计普遍只能做到80-90%,甚至70-80%,这个角度来看成本一下就差20-30%。所以很多时候大家算账的时候没有算这个账,反正我租你一台机器是四五万块钱,租他的也是四五万,后来你发现在你这儿能跑起来,在那儿磕磕绊绊的经常跑不起来,时间长了以后就会重新选择。 


将来很快到10万卡集群的时候,集群有效利用率影响非常大。所以我们确确实实在客户侧遇到这样的情况,我的价格确实比友商要贵,但最后他们还是选择了百度云,是因为你的算力集群更靠谱,利用率更高、效率更高。IaaS这一层虽然看起来是堆机器谁都能干,但实际上技术门槛很高,差别很大,这一块一定是通过技术能够拉开差距的。 


再往上的应用层,毫无疑问也是可以商业化的,我们现在也看到很多客户真的是通过大模型帮他解决了行业问题,他愿意为此买单。现在中间这一层,就是模型调用这一层,我相信现在很多人在亏着钱干这个事,但我觉得这也未必是一个坏事,反正在早期教育市场的时候,得让大家来用,正是因为这样的原因,我们把两款模型ERNIE Speed、Lite干脆免费,免费让大家去用,我们提供算力,大家免费调用,也是为了让这个市场尽快了解大模型。我觉得这个时间不会太长,百模大战可能很快会结束,最后市面上可能留两三家模型厂商,这个很快会冷静下来。 


客户侧或者使用方也有他们的选择,对他们来讲并不是便宜就是最好的,其实真正找到能用得上、帮他创造最大价值的模型那才是最好的,在这个情况下,随着使用方认知的提升、供给方能力的拉开,中间这一层很快会理性。这个时间不会太长,最多两三年的时间。 


冯大刚:今天大模型很多是在TOB领域落地的,这是不是跟中国市场习惯、用户心理有关系? 


沈抖: 做云肯定就是一个TOB的业务,TOB业务里面刚才咱们讲了不同层。不过大模型本身不等于SaaS,在大模型之上可以做出好的SaaS,但大模型这个产业本身不等于SaaS,更接近于云的逻辑:底层是GPU算力管理的IaaS产品,中间模型调用服务属于PaaS或者现在叫MaaS,再往上基于大模型去开发SaaS应用。 


所以今天大模型从做TOB业务的角度来讲,比以前任何其他产品做TOB成功的可能性都变高了很多。两个原因:第一个是大模型的通用性确实比以前的小模型要强很多,以前做任何一个AI应用,你从数据,到选模型训练,最后到应用,真的是从头到尾来一遍,即使你带了一个现成的小模型去了,为了切入企业客户原来的业务系统,可能都要做大量的适配。今天大模型比那时候的小模型通用性确实强了很多,拿到企业客户那儿以后,最起码得七八十分没问题,再想得到九十分要做微调和后预训练,但比以前标准化多了。 


第二,大模型不像以前TOB交付都是一锤子买卖,以前交付完了就结束了,但现在大模型是一个持续迭代升级的过程。我们有些客户已经提出了要求,你今天给我交付的模型,即使是私有化部署的,我希望它和你线上的文心大模型差距不要超过3个月,我希望它持续更新。这是跟以前TOB业务完全不一样的,以前的一锤子买卖没了,现在你服务了一个客户要持续地去更新,就像一个加速发版的Office一样。 


冯大刚:过去可能是交钥匙工程,但客户现在希望能够跟我一起来开发,一起做一段时间,提供“陪跑服务”。 


沈抖: 在任何地方做TOB业务,定制化服务不可避免,只不过以前要定制化,是一锤子买卖,这次做了以后你亏了钱,这事就结束了,你下次再做还是从头亏钱。现在大模型服务“陪跑”我觉得是好事,里头有两个原因: 


一个确实因为工具还不够成熟,这些客户也不够熟悉,所以需要人帮他去做。另外一个更重要的陪跑过程是大模型持续迭代升级的过程,因为基础大模型升级完了以后,客户的大模型要跟着去升级。 


每跟一个客户合作我都会问团队同样的问题:一、有没有给客户真正创造价值?二、在这个客户的交付上,我们的交付成本比以往合作的项目是高了还是低了?如果低了,那证明这件事方向是对的,如果高了那就错了。现在我在问的过程中无一例外听到的反馈是低了,就是因为大模型的这种泛化能力、通用性确实比原来要好。 


陪跑过程只不过因为现在客户还不熟悉不了解,大模型产品本身不成熟,陪跑会持续一段时间,但会越来越少。 


冯大刚:过去所谓的IT时代有很多很多IT服务公司,可能是软件开发公司,也可能是硬件集成商,他跟很多客户关系也很好,这样的公司好像在中国可以以百万来计算,他们做大量的所谓“最后一公里”的事情,你觉得在大模型时代还会有这样的机会吗? 


沈抖:会,而且会变多,我认为这个门槛会变低,原来你要想去做最后一公里,无论是技术上、资金上、客情上,还是要有一定要求的,研发人员上都得有一定基础才能去做的。但现在有了大模型以后,这个门槛肯定是降低的。原来可能交付是最后一公里,可能以后基于大模型交付只是最后100米了,100米的难度比原来要低。如果懂这个行业,应用成熟的工具链,直接交付就行了,把需求对清楚就行。


日调用量7亿次,70万个AI原生应用


冯大刚:从2023年3月份文心一言开始正式发布,今天用户量突破了3亿,速度越来越快,第一个产品用了七八个月时间,然后加快到四五个月,现在用了三四个月就增长了新的一亿,怎么看这个数字? 


沈抖: 我是觉得考虑到现在的大模型还在一个非常早期的阶段,大模型用户规模这个数字本身不重要,但我想增速是保持的,因为现在用大模型的切入点会越来越多,现在百度正在用大模型彻底重构各种产品,包括搜索、网盘、文库、地图、以及我们的商业产品等等。将来我觉得大模型在所有的产品里面,都有独特的价值,所以将来用户规模进一步增长我是一点都不担心的。 


冯大刚:除了用户规模,从TOC角度来看,衡量一个TOC大模型的标准是什么? 


沈抖: 我觉得还是它帮用户解决问题的能力是什么样的。比如百度特别重视智能体,我们希望这些智能体能够更完整、更系统地去解决一个用户的需求。其实用户的需求是很多的,我觉得很多时候是因为我们的产品不能满足用户,或者产品使用门槛高,一定程度上压抑了用户的需求,一旦是产品能力能够很方便地帮助用户解决问题,那么用户想问的问题会冒出来更多。 


今天的搜索还是一问一答的形式,当里面有了更多智能体以后,问一个问题,这个智能体就可以把这个复杂问题周边全给解决了。比如我要去哪儿旅游,你能不能帮我规划一下。这个例子已经举烂了,但能真正实现完美体验的,真的像一个助理一样帮你把这些问题解决掉的那种体验还没有出来。我觉得现在大家PK的是这种东西。现在为什么用户规模,甚至包括模型调用量,慢慢都不是很关键的指标?因为这些指标很大程度上能够“造”出来,明明一个问题一次调用可以解决,现在要用三次调用解决,看起来调用量成了3倍,但这没有任何意义。调用量是核心指标,但要分清是好流量还是坏流量。所以,判断模型好坏的标准还是:企业有没有真的用起来、客户是不是觉得有价值。 


冯大刚:我记得以前Robin(李彦宏)曾经提过“不要卷模型,要卷应用”。百度对应用就一直非常非常重视。我看到一组数据,在千帆大模型平台上,文心大模型的日调用量已经超过7亿次,帮助用户开发了70万个AI原生应用。你怎么看待这70万个应用的质量,怎么评估它的质量? 


沈抖: 这是一个培育市场的过程。就像互联网早期一样,很多人就做了一个网页、一个网站,这个网站可能就是个人介绍,但这个阶段还是要经历的。在这么多应用里面,甚至现在比这个数字还更高,每天有大量人在上面创造应用,这个本身是培育市场的一个过程,同时里面一定会冒出来好的应用。我们现在已经能够看到医疗、教育、政务领域很多很好的应用出现。 


冯大刚:会不会有一个类似于推荐的系统,告诉别人说哪些东西是我们推荐的? 


沈抖: 有,我们会选出来一些应用作为推荐应用,甚至会放在应用商店里面去让更多人来用。将来这个会是更完善的一套系统,这边开发出来应用以后,怎么能够在搜索里分发,然后让更多人能够触达它,这是百度内部在不断推的。我们无论是AppBuilder生产出来的应用,还是AgentBuilder生产出来的Agent,我们都会推到搜索里去,变成内容和服务供给。 


现在这些应用开发出来有些可以直接访问,有些可以直接放到百度搜索里,有些直接放到微信公众号智能客服里了,现在分发渠道是比较多的。其中一个很重要的渠道,我觉得将来会是百度APP、百度搜索,搜索把应用的流量带起来,开发者有收益了,开发动力更大了,对搜索来讲有更多的内容和服务,这个飞轮会转得更快。 


冯大刚:有没有可能存在一个特殊的时间点,有一家大公司靠大模型以及相关应用,突然赚到很多钱,就是它突然跟以前不一样了,可能一夜之间变成一个新的公司,然后所有公司开始疯狂的进入这个行业。 


沈抖: 一夜之间不一定,但现在潜移默化已经在发生了。其实第一个问题就已经聊到了,现在是变冷了还是保温、加热、加速,我之所以判断是加速,是我们现在跟客户聊的时候,发现客户真的懂了大模型,懂了大模型研发范式,并且琢磨怎么把大模型应用在自己的场景里面,这类情况比以前多得多。 


第二个,在研产供销服的环境里面,今天的这个大模型确实是以大语言模型为主,它所能发挥价值的地方确实是文字交流或者对话的场景下更容易发挥作用。在招聘行业用的就非常多,原因是招聘里面很多时候就是要做简历的匹配,甚至做一个数字人的面试,这些东西完全可以用大语言模型来解决。对这类企业来讲,这本身就是它的生产核心流程,这时候大语言模型很容易嵌进去。 


同样的,在法律上、在营销上,这些地方基于语言的创作交流就是它的核心业务场景,那很容易做进去。如果真正到工业生产里面去,大语言模型能不能控制一台设备,长期来讲肯定是可以做的,但现阶段大语言模型干这事,不是它能马上发挥作用的地方。所以我觉得在那些地方,感觉大模型实际上是在周边做事情,照样可以帮你做一些知识管理、设备管理等等,也可以起到些作用。但对它们来讲不是一夜之间因为你给我做了设备管理、知识管理,我一下子就变成一个很好的企业了。但像刚才那些,招聘领域、营销领域,这些地方大语言模型,语言就是它们核心生产流程里面的主要生产工具,大语言模型嵌进去一定可以帮他们降本增效。 


大模型在TOB领域里面是一个逐步渗透过程,不像原来一个2C产品一下大家觉得它火了。在TOB领域就是慢慢渗透,就是润物细无声,你没有感觉到它,后来忽然回首一看,哇,整个生产流程,研产供销服全是大模型来驱动的。 


冯大刚:你认为哪些领域最应该引入大模型,产生价值应用? 


沈抖: 但凡人能参与的地方,我认为大模型都会在将来深入地去应用。还有人在问,到底什么叫AI应用、AI原生应用?我是觉得能像人一样去工作的体验就是AI原生应用。从这个角度来讲,AI原生应用有几个阶段,首先是Copilot,然后是一个Agent,再后是一个AI Worker。大模型什么时候比得过人类,成本又低,就可以用它了。 


比如AI数字人直播,已经在流量上做了充分的验证,做一个数字人直播带货很显然成本远低于人,但转化效果差不多能达到一个人,在特定场景下能超过一个人。而且不但能自动生成直播脚本,还能够自动地去识别评论、回复各种评论。这种的,飞轮一旦起来以后,效果会越来越好。 


冯大刚:你在2024年5月份的智能经济论坛里面提到过一个观点,说百度客户普遍关心的四大问题是“自主可控、算力能效、数据服务、领先模型”,有没有比较完美符合这四个观点特别好的案例? 


沈抖: 我们有一个合作伙伴是北大毕业的,后来在美国工作过一段时间,他是一个医生,他发现一个非常刚性的需求,就是他在给患者看病的时候,首先得问患者一些问题,知道这个患者的大概情况,然后再去做检查和判断,最后再写一个病历,前面了解患者基本情况到后面写病历的时间浪费了很多,但这段时间并不直接对患者产生价值。 


他就想去用大模型解决这个问题,做一个Agent,把预问诊和写病历这两头的事给他干了。之前他用传统的AI语音识别+文字处理、摘要,一直解决不了这个问题,后来他自己用开源模型做了半天也没有太成功,后来他在千帆平台上用我们的ERNIE Speed模型做了微调,发现准确率大幅提升。现在已经有45家三甲医院、1.5万个医疗机构在用这个AI应用了。 


刚才讲这个过程,第一个是模型能够做微调,能够满足要求,这是为什么千帆平台上一定要准备模型微调工具链,越完善对模型迭代越友好。第二个是在数据上,要做到数据安全,他现在实际上是通过把千帆平台私有化部署到医院里面去,保证数据安全。第三个是模型效果要好,不好的话解决不了具体问题。第四是算力效率问题,在他这儿不是特别明显,但即使在这种情况下,你的一体机部署好以后,一台机器在模型推理上到底能支持几个医生同时工作,那就决定了成本高低。所以这种问题现在依然是客户最关心的几个问题,但是已经慢慢能找到这样的客户真的就落地了。


有生之年,AGI大概率会实现

冯大刚:如果从亚马逊最早开始尝试自己的云开始,到真正普及,大家普遍接受云服务概念,大概花了二十年。你觉得大模型的成熟大概需要多长时间,标志是什么? 


沈抖: 我感觉大模型的落地速度比云计算要快一些。虽然今天是说大模型,但实际上是整个AI发展的一个延续,人工智能发展了几十年了,这对全民普及渗透和认知角度来讲,比当年云计算肯定要充分得多。第二个,大模型的落地速度比之前很多技术落地的速度都要快。虽然说三年急了一点,但以五年为周期不算夸张。 


冯大刚:智能云在五年之内能超过传统云的市场份额? 


沈抖: 不一定能到那个水平,但会发现智能云是被普遍接受,而且在很多客户场景里面广泛渗透的一个局面应该比CPU云要快的。但如果就按整个GPU云的体量来算的话,五年以后超过CPU云问题也不大,就看GPU本身算力增长的速度,GPU价格高、大模型训练推理需要的GPU规模又大,所以它的增长速度肯定远超过现在CPU云。 


冯大刚:在你刚去管智能云的时候,你会觉得是个挑战吗? 


沈抖: 当时我去做2B的时候,做智能云的时候,对我来讲是一个全新的挑战,但是我觉得做起来也很有意思。 


其实我在百度内部的轮岗比较频繁,过一段时间就轮一下,从移动生态轮岗到智能云,我倒一点也不惊讶,而且我也特别期待这个轮岗,因为这样的话,我觉得很多新的事又有很多新的体验,也能学到很多新的东西。虽然做TOB,我发现切换的难度还是比较大,因为涉及到的行业也非常多,需要用的技术也比较深,即使到今天我也不敢说云计算很多底层技术我就很熟悉了,因为它的涉及面确实比较多,而且整个思考问题的方式、判断产品的方式也不一样。 


冯大刚:几乎中国的互联网大厂都习惯于做TOC产品,因为TOC产品可以直接用产品来跟用户对话。今天TOB不一样,TOB里面中间商各种各样采购的环节是非常复杂的,整个决策也非常复杂,这个某种意义上,整个中国互联网公司都要从头开始去学怎么去做TOB。 


沈抖: 对,这个很正常,原来做纯TOC的业务去做TOB肯定有一个学习的过程,但有一个好处是,中国之所以没有特别好的SaaS产品,没有做特别大的TOB服务的企业,很多时候也是因为没有借鉴做TOC产品的经验。如果真的是靠一个一个项目磕出来,不能通过产品体验、产品价值来获得客户的信任和认可的话,那它确实很难规模化。这个过程确实是逼着团队更多的从产品视角来思考,怎么通过产品来创造价值,而不只是通过项目来创造价值。 


我做了TOB之后发现,跟我以前想象的完全不一样。TOC多数情况下,自己坐在办公室就知道C端的需求是什么,因为很多时候自己就是TOC产品的用户,但TOB不是,TOB确实要更多接触客户,到客户现场去,不然很难理解应用场景到底是什么。 


冯大刚:过去一年你花时间考虑最多的问题是什么? 


沈抖: 肯定是大模型落地,大模型到底怎么真正产生价值。 


冯大刚:有没有想过十年以后的AI和大模型是什么样子,以及在接下来的十年里你要怎么努力、做到什么样的效果,才算这十年时间没有白费? 


沈抖: 很多人都期待AGI到来,可能需要很长一段时间,但大家都在往这个方向努力。我觉得无论AGI是不是到来,但基于通用人工智能解决人的很多问题,这件事是需要摸索的,不应该等到AGI出现了才开始干,而是要思考就今天的技术水平,我们到底能解决哪些问题。 


我相信AGI肯定会实现,而且我们有生之年大概率会实现。其实你看现在的人工智能发展也就短短几十年时间,虽然也在起起伏伏的,有时候冷有时候热,但从1957年到现在,它的发展速度已经到了今天这个水平。看其他技术路线,没有哪个能有这么快的进化速度。更何况我们具备了这么大的算力,这么多的数据,我觉得只会加速。 


未来十年应该是比过往任何一个十年的变化都会更大。今天,我们看数字人直播,有时候已经不能分辨它是不是数字人了,将来我们可能都无法分辨你对面的人是谁。当然也有可能到那时候我们压根也不需要知道是谁跟谁在对话。 


这种改变是必然要发生的,无论恐惧还是期待,这个趋势都会不改变。但几乎任何时候我们回头来看,积极拥抱技术变革,最后产生的总收益都会更大。


文章来自于“36氪”,作者“晓曦”


关键词: AI , 百度云 , 大模型 , 人工智能
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
数字人

【开源免费】Fay开源数字人框架是一个AI数字人项目,该项目可以帮你实现“线上线下的数字人销售员”,

“一个人机交互的数字人助理”或者是一个一个可以自主决策、主动联系管理员的智能体数字人。

项目地址:https://github.com/xszyou/Fay

2
智能体

【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。

项目地址:https://github.com/Significant-Gravitas/AutoGPT


【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。

项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md

3
微调

【开源免费】XTuner 是一个高效、灵活、全能的轻量化大模型微调工具库。它帮助开发者提供一个简单易用的平台,可以对大语言模型(LLM)和多模态图文模型(VLM)进行预训练和轻量级微调。XTuner 支持多种微调算法,如 QLoRA、LoRA 和全量参数微调。

项目地址:https://github.com/InternLM/xtuner

4
无人直播

【开源免费】VideoChat是一个开源数字人实时对话,该项目支持支持语音输入和实时对话,数字人形象可自定义等功能,首次对话延迟低至3s。

项目地址:https://github.com/Henry-23/VideoChat

在线体验:https://www.modelscope.cn/studios/AI-ModelScope/video_chat


【开源免费】Streamer-Sales 销冠是一个AI直播卖货大模型。该模型具备AI生成直播文案,生成数字人形象进行直播,并通过RAG技术对现有数据进行寻找后实时回答用户问题等AI直播卖货的所有功能。

项目地址:https://github.com/PeterH0323/Streamer-Sales