ChatGPT 人工智能 GPT4 伦理 生成式 医疗 监管 安全 机器学习 深度学习 神经网络 计算机视觉 强化学习 模型 算法 应用 开发 研究 工具 平台 框架 数据集 训练 部署 安全 合规 培训 投资 LLM,llm AI,ai,Ai 大模型 大语言模型 制图 生图 绘图 文生图 文生视频 生成式AI AGI 世界模型 sora chatGPT,chatgpt,ChatGpt claude openai Llama deepseek midjourney 红熊猫模型 Red panda,panda Stable Diffusion,StableDiffusion,stable DALL- E 3 DALL E DALL Flux,flux 扩散模型 混元大模型 文心一言 通义千问 可灵 Pika PixelDance 豆包 月之暗面 零一万物 阶跃星辰 搜索增强 MiniMax Talkie Agent prompt fastai LangChain TTS 微调 提示词 知识库 智能体
# 热门搜索 #
搜索
对话腾讯汤道生:大模型和云一样,难以被垄断
3574点击    2024-02-08 10:45
所有云厂商都面临着这道难题:资源有限,要怎么继续投入到大模型里?


自ChatGPT掀起全球AI浪潮,时间来到一年多后的今天——比起仰望星空,中国科技圈对大模型的讨论,早已快进至如何落地,以及真正改变人们的生活。


现在,客户对云厂商的最大诉求是什么?“一是大模型,二是降本增效。”腾讯集团高级执行副总裁、云与智慧产业事业群CEO汤道生毫不犹豫地回答。


这是2023年中国云市场的典型一面。


大模型,让AI成为云市场不可忽视的关键变量。这是云厂商争夺第二增长曲线的激烈竞争——谁在大模型的道路上跑得远,跑得快,或许就能弯道超车,一举改变市场格局。


但现实情况是,国内外云计算市场逐渐复苏,但宏观环境变幻莫测,无论是云厂商还是客户,都尚未改变保守谨慎的预期。


降本增效,依旧是核心任务。


腾讯云也不例外。从2021年开始,腾讯云断然按下很多业务的暂停键:放弃许多营收数字看着很大,但利润极低的转包、集成项目——转为以自研产品为主的发展模式,要“有质量的增长”,更强调生态合作。过去两年,腾讯云的被集成收入增长2倍,利润也得以大幅改善。


但大模型如此重要,却又如此昂贵。千亿级的通用大模型训练成本,动辄千万甚至亿元,OpenAI下一代大模型GPT-5的训练成本,甚至高达数十亿美元。在国内,挑战更甚,曾有行业人士对智能涌现表示:“在大模型战争中,中国几乎是在海外的十分之一算力上打仗。”


资源有限的大前提下,所有中国云厂商都在面对这道难题:口袋里的钱变少了,但大模型要怎么继续投入?


在大模型这件事上,腾讯选择了一条更务实、开放的道路。


比起孵化新AI项目,腾讯更倾向于让已有业务先拥抱AI,先让客户用起来。“用户在意的是有更好的体验,至于产品背后是AI,或者其他什么技术,对他们来说并不是那么重要。”汤道生表示。


据透露,目前腾讯内部已经有超过300个业务接入腾讯混元大模型,也为20多个行业,提供了超过50个大模型解决方案。


而对未来在AI时代中的定位,腾讯云把目标锚定在解决用户需求,让技术真正可落地上。“我们唯一的定位,就是客户需要。”汤道生笑着说。在腾讯的行业大模型商店上,客户甚至在混元、腾讯云行业大模型之外,可以找到其他厂商的20多个开源模型,腾讯云的模型训练和应用开发平台,也同样兼容。


在艰难的时日里,云厂商既要有质量的增长,又希望在AI之战中取胜,这更需要耐心和战略定力。“未来五年或者十年后,我最为看重的,可能还不是我们的整体规模能到多大,而是会把每个产品的细分赛道都拆出来,看看是不是在每个赛道做到最好。”汤道生说。


近期,智能涌现再次对话汤道生,他谈到云市场的最新变化,也提及在大模型带来的新一波AI浪潮中,腾讯云如何再次定义自己。



△腾讯集团高级执行副总裁、云与智慧产业事业群CEO汤道生


以下为访谈全文,经智能涌现编辑整理:


原来是“抓大放小”,现在小的也要抓


智能涌现:我们上回聊,是在2022年5月。你和Pony(马化腾)都公开讲过,腾讯云当时的策略是拒绝虚假的繁荣,而是要看实在的收入和利润。一年多过去了,这个战略是否有什么变化?


汤道生:战略大方向其实没有太大的变化,就是回到业务本质——做基于前沿技术的“平台型产品”,然后让伙伴通过集成我们的产品,打造解决方案,完成交付、运维等服务,向各行各业去覆盖。


当我们把精力聚焦在做好产品、卖好产品、服务好客户的时候,我们的业务运行效率变得更高,成本结构更加合理,利润水平自然也会提升,实现了良性循环,健康可持续发展。


智能涌现:腾讯前不久也发了2023年Q3财报,腾讯云这个季度毛利率有比较大的提升,你觉得改善主要是来自什么地方?


汤道生:其实不只是(Q3)这个季度,整个2023年同比2022年都有明显的增长。这主要得益于前两年我们启动的战略转型——回归做产品、推动被集成,通过“减脂增肌”,让整个业务走向了健康可持续。


我们的战略转型还在不断深化的过程中。早期可能会有一些低垂的果实(Low-Hanging Fruits),我们抓大放小,马上就能够看到成效,比如明显定价错位、有亏损的业务,不亏钱做就好了。但现在市场一直在变化,到2024年,我们不仅要“抓大放小”,小的也要抓,要抓产品细节,还要抓服务细节,“魔鬼都在细节里”,相信未来我们的利润状况还会持续改善。


智能涌现:要将这些战略落地,你们最重要的几项行动方案是什么?


汤道生:首先是销售侧的管控会更严。原来有一部分收入,可能涉及转售第三方的产品,或者短信产品等一些对我们来说并不核心的产品。我们现在会微调,重新对齐目标,考核自研产品收入占比。


其次在经营管理上,也尽可能做到精细化。一个项目哪些地方会出现风险,会有成本溢出,我们会利用数字化工具,统一来进行运营和管理。


再就是供应链管理能力的提升。2023年,我们花了大量的精力,用来估算需求,与前线信息拉通,减少供给端的浪费,这也直接带动了毛利的提升。


智能涌现:2023年,云厂商又开始了新一轮价格战,腾讯也有参与。这次价格战和2014年-2015年左右的价格战,有什么不同?


汤道生:本质上没有什么不一样,就是卷。但是现在的市场更成熟,玩家没有之前那么多,而且大家都想要健康可持续,很难纯粹靠价格抢市场,客户也变得更理智了,不会因为价格低,就选择你,还得看你持续提供优质服务的能力。


我始终觉得,打价格战是最低水平的竞争方式,我们还是希望把重心放在产品本身,以好产品与好服务,赢得更多客户。


智能涌现:现在腾讯云对降价的投入程度是怎么样的?这种价格战能持续多久?


汤道生:在核心成熟产品上,我们肯定希望靠我们的技术和服务能力获得市场竞争力,而不是单纯的低价。新的技术架构,也能为客户降本,比如大数据的湖仓一体架构,就比传统做法性价比更高。最近推出的新一代云服务器,基于性价比更高的Bergamo芯片,也能给到客户更低的单位计算成本。


当然,还有一些培育期的业务,比如像大模型业务,还是在投资早期阶段,我们也愿意继续投入打造好产品,做强技术。在ROI为正的情况下,我们的逻辑是把规模做大,规模做大之后,自然能覆盖固定成本。


智能涌现:如何在技术投入期,保证好服务的质量?2023年,行业里也出现了不少云服务故障事件。


汤道生:公有云的迭代更新、升级周期很快,故障会有各种原因,比如物理层面的关水、挖断电缆、停电,哪怕是做软件升级、运营变更,也可能会引发一些问题。


我们尽量从架构设计层面,就开始规避这些隐患,通过模拟故障演练来完善系统容错性,比如我们有个项目“混沌工程”,就是专门做这项工作的,定期关停云上不同模块,看看系统如何切换流量到另一个可用区。我们也会和客户一起演练,不断地对技术架构的每一层进行完善。


如果出了服务故障,除了帮助客户尽快恢复服务外,我们也会即时复盘,避免对于某一个单点的依赖,优化流程与架构,不要让同类问题再次发生,这挺考验技术研发与服务运营的管理能力。


智能涌现:现在,客户对云服务的选择标准会有什么变化?


汤道生:我的感受是,客户更理智了。选择云服务不只是看一次的价格,而是看你有没有实力支撑长期的、更优质的服务。


我们的很多客户,之所以选择腾讯云,就是看重了我们的一些多元化、独有的能力。


比如,国内外很多企业都选择了我们的音视频产品,是因为腾讯云的音视频技术,能够做到端到端画面传输平均延时低至300ms,使得用户在弱网环境下,仍然能够高质量地音视频通信。并且,我们也通过全球70个可用区2800多个加速节点,可以为海外用户提供稳定、流畅的音视频体验。


除了底层技术能力之外,很多客户也很看中我们独有的用户触达能力,比如,很多零售行业客户非常关注私域流量运营,微信小程序上GMV占比也越来越大。我们善于在不同的场景里理解客户,也有QQ、微信、企微等丰富的触达用户的产品工具,通过C2B的连接能力,可以帮助零售企业提高运营效率,活跃线上交易。


大模型和云一样,难以被垄断


智能涌现:AI是2023年云市场的核心话题。2023年年初,我们也采访了李彦宏,他的一个观点是“AI大模型会是云市场的Game Changer”,并且会给百度云带来很大机遇。一年过去了,你现在怎么看待这样的观点?


汤道生:这的确是个巨大的机会。要实现AI大模型应用,需要结合不同层面的技术,包括基础设施、模型、agent与工具、还有应用场景,每一层都需要考虑到,才能在合适的行业场景中,找到业务落地机会。正是因为大模型落地的环节众多、流程复杂,这就会带来从底层算力,到上层智能化应用的庞大的需求。


其中最大的机会,来自广阔的产业应用场景。目前,大模型最普遍应用的是,面向用户的智能客服、智能营销、组织内部的知识共享等。


我们和一家国内的头部在线旅游公司,基于“文旅大模型”,加入企业数据精调后,打造了“机器人客服”。它可以自动判断用户意图,并自动调用相应的API,高质量完成用户咨询及服务。


假如一个用户问“春节假期,在珠三角应该怎么玩?”,机器人客服不仅能够给出景点介绍,还能够规划出交通、景点、酒店安排,甚至可以直接提供预订链接,以及优惠券等信息,不仅实现了贴心的服务,也具备了更强的销售转化能力。


智能涌现:如果还是从IaaS、PaaS和SaaS这三层来看,2023年AI技术的发展,对腾讯云的产品架构有产生什么实质性影响吗?


汤道生:我们的产品架构,没有太大的变化。大家都在AI技术研发与算法迭代持续投入的阶段,有很多新的应用场景在探索与打磨。在这三层产品上,我们2023年都有推出新产品。


首先,大模型的训练与推理会带来大量计算需求,大量数据也需要存储、清洗、标注等处理,对IaaS业务有很大的促进。我们也推出了新一代HCC高性能计算集群、具备3.2T通信带宽的高性能网络星脉,GPU的利用率提升40%,模型训练成本节省 30%~60%,通信性能提升10倍,为大模型训练提供高性能、高带宽、低延迟的智算能力支撑。


在PaaS层,我们就升级了TI平台,给客户一整套AI工具链,来做数据标注、管理、精调、部署、推理加速等等。大模型让客户对大数据系统与数据分析的投入也在相应加大,腾讯云大数据的EMR组件也因此获得很好的增长。腾讯云智能团队也在结合不同AI技术模块,打造一个企业级综合知识引擎,让企业构建自身的行业知识库更高效、更简单,并可以让一个行业大模型同时服务多个智能场景。


而在SaaS层,腾讯有很多产品、场景都接入了大模型。比如腾讯会议,现在用户开完会,就可以自动生成会议纪要,这些都是一些新的商业机会。


智能涌现:2023年大模型市场有非常多玩家,大家戏称现在是“百模大战”。腾讯现在的路线,和其他厂商会有什么不一样?


汤道生:腾讯的AI故事里,我们既有公众高度关注的通用大模型,也有企业所在意的行业大模型,还有模型与应用构建的工具箱。


对一般AI应用来说,也不是模型越大就越好,开发者应该关注具体场景下不同模型的效果与性价比差异。所以去年我们就讲,腾讯云会支持多模型的策略,让客户既可以直接调用混元通用大模型,也可以在开放模型商店里,下载与部署不同厂商的开源模型,然后再用企业数据做精调。腾讯云智能正在与多家伙伴共建行业模型,在金融、旅游、零售等领域,已经积累不少大模型应用的案例。


同时,我们也很关注RAG(检索增强生成)、向量数据库这些新的技术方向。比如,向量数据库基于真实的信息提取后,再用大模型来帮你做分析整理,抽炼出最关键的核心信息,这样会有效减少大模型出现幻觉的几率。


智能涌现:还是走比较务实的路线,比如比较小的模型,先解决一些可以解决的问题。


汤道生:是的。


智能涌现:如果用一句话概括腾讯在AI时代里的定位,你会怎么概括?


汤道生:对腾讯来说,很难用一句话来定义自己。我们做事的原则是,从客户的需求出发,客户需要什么,我们就想办法去满足。在过程中,我们会不断寻求技术突破,探索创新,攻克技术难题。


如果用一些关键词来总结,第一是开放,这是我们做To B业务的一个非常重要的价值观。在大模型上,我们和很多模型厂商都有合作,海外的、国内的都有,我们的模型商店里有上架了很多开源模型,企业可以根据不同业务场景,选择不同的模型做定制化开发和精调。


第二是场景,我非常关注解决具体业务场景,大模型要实用、有性价比。我们需要给客户一个投入大模型的理由,而不是纯粹为了追概念、不掉队。


智能涌现:你强调实用和性价比,是2023年和客户打交道听到很多次吗?


汤道生:对,这是很实际的问题。


智能涌现:大家觉得现在大模型还是太贵了吗?


汤道生:大部分客户现在会更讲究技术的实用性与可持续性,而不是不计成本地投入到概念中,尤其在比较有挑战的经济环境下,客户都希望投资能快速有回报。


我们也会给客户提供不同厂商、不同性能的芯片选择,寻找最高性价比的技术方案,实现最高的ROI。


智能涌现:又是百模大战,又是价格战,同质化竞争出现时,腾讯云的优势会在哪里?


汤道生:部分资源性的云产品确实容易同质化,在大厂商继续追求规模与市场份额下,很难避免一些低价抢客户的情况。但云厂商要可持续地健康发展,必须发挥技术优势,提高供应链管理效率,才能体现长期成本优势。


腾讯云的核心战略,一直都是要发挥腾讯业务所积累的技术优势,比如我们的C2B连接与音视频通讯能力,体现在腾讯会议、企业微信、互动直播等产品上,很受客户欢迎。同时腾讯自身的微信、QQ、游戏等海量用户业务,也让腾讯云在存储、网络、数据库、安全等领域,形成了稳定可靠、高性能、高性价比的技术。还有丰富的内容业务,以及与之相关的AI算法与大数据技术,也是突出优势。


最后还有一点,腾讯云的战略是长期稳定的,管理导向也比较明确与稳定,这也是客户比较在意的地方。


智能涌现:组织怎么变,会怎么影响客户使用体验吗?


汤道生:组织的变化是为了提高管理效率,要适应市场变化,但是战略上要保持定力,坚持务实地做事情,客户的感受会越来越好。所以这几年,虽然我们的组织在不断微调,但不同阶段,无论是人员轮岗,或者其他的变动,我们的价值观、战略选择始终不变,也得到了客户的认可。


智能涌现:2023年大模型出来之后,在云市场原来的IaaS、PaaS、SaaS层上,大家开始纷纷提出MaaS(Model as a Service,模型即服务)这个概念,云厂商直接卖模型服务,带动云算力的增长。你怎么理解这个概念?


汤道生:我们对MaaS的定义并不是那么严格,更希望表达一种开放态度。MaaS市场里的模型,并不局限于云厂商自己开发的模型。


我们希望给客户提供不同的模型选择。比如客户可以直接调用我们混元的API,这是最直接的MaaS服务,客户也可以用其他开源模型,在我们的TI平台来做预训练、精调、部署管理等等。


智能涌现:在大模型这个领域,腾讯最终希望形成的商业模式是怎么样的?


汤道生:大模型的商业化,肯定是建立在应用场景普及的基础上的。


随着大模型应用的普及,不同技术层的厂商在不同阶段会有不同的商业化机会,比如模型训练与推理都需要非常大的算力支持,这已经给芯片厂商带来巨大的收入。在模型层,现在大家还在投入阶段,估计国内没有谁不亏损的。


长期来说,在应用层,如果能控制好训练和推理成本,智能服务对用户与企业都有提高效率的价值,大家应该会更愿意为此买单。另外,模型搭建和精调要用到的AI工具,智能服务需要长期运营与迭代,会形成长期使用的粘性,也应该会有一个可持续的商业模式。


智能涌现:云计算一直被公认为是马太效应显著的行业,市场上最后只会有少数玩家。如果以后MaaS真的成了主流商业模式,垄断会变得更容易吗?


汤道生:我觉得不会。刚刚我也提到,Model as a service(模型即服务),这个概念本身就有开放的含义,因为既然是个服务,那就会有明确的标准化接口,无论底层用什么大模型,都可以在某个应用框架里持续运行,这样的架构一般不会出现垄断。所以,我们长期以来也都尽量基于开源标准来搭建商业化服务,客户不会觉得用腾讯云的技术,就完全被绑定。


更重要的是,大模型本身是一个多层次、复杂的系统工程,不会有一家企业,垄断所有的机会,这里面除了涉及基础算法、顶层应用,还需要底层算力、芯片,中间层的各种模型开发和管理工具,包括有部署的、监控的、模型可视化的、以及各种模型框架。


这些帮助挖掘大模型“金矿”的工具供应商,同样有巨大的机会。每个企业只要聚焦擅长的领域,把产品和技术做到最好,就能占领一席之地,甚至成为一个垂直领域的“独角兽”。


智能涌现:但参照海外,现在美国已经形成了两股比较明显的势力,OpenAI的GPT是闭源、商业化的代表,也有Meta旗下围绕Llama模型的开源生态。


汤道生:虽然有这两股势力,但大家在针对不同场景、从不同维度去竞争,各自都会有很多创新点,发挥独特优势,创造不同价值。而现在国内的AI市场已经被点燃,像海外一样,大家都在从不同维度寻找机会,目前已经出现了很多玩家,估计还会有一段时间混战。


客户不需要知道产品背后是AI,还是其他


智能涌现:2023年,你个人在业务上花时间最多的部分,是在什么地方?


汤道生:肯定是见客户更多了,无论是国内还是海外,我们交流都更多了。除了出差之外,我也喜欢去研究一些技术细节,透彻地了解一些技术能力的优缺点以及为什么。


智能涌现:客户提到最多的问题,或者和你交流最多的事情,是什么?


汤道生:最多的肯定是AI与大模型,然后是降本增效。


智能涌现:都是很实在的、务实的诉求。


汤道生:大家的最终目的,都是想提高经营效率,为业务建立竞争优势。


智能涌现:云计算是新经济的技术基座和底层,也反映很多领域的经济活动情况。除了零售、金融是腾讯云一直以来的优势行业,2023年,有没有一些新的行业进入你们的视野?


汤道生:一些和宏观经济趋势同频的行业,都会有比较强的降本增效的需求。有些正在风口的行业,比如新能源汽车行业,因为终端用户对智能化体验的追求,汽车成为了新一代的智能终端,因此产生了很多数据与连接用户的需求,大量数据需要被计算、存储和分析,对云的消耗也大大增加,对云厂商来说肯定是好事。


在国内,旅游、文旅行业的数字化需求也在恢复。零售行业的趋势也在变化,有亮点也有挑战,大家都在用数据来辅助业务决策,提高经营效率,因此对云与大数据依赖越来越大。


另外,还有很多客户在积极出海,我们也跟着他们一起走出去,对比海外云大厂商,国内云厂商提供的产品一般价格更低,响应更及时,服务态度更好。


智能涌现:在现在的宏观经济下,对你们在云业务上的投入,会产生什么影响?


汤道生:我们的服务肯定也会受客户业务发展的影响,今天我们和客户讲新技术的时候,会和他们强调降本增效的可能性。


降本增效来自技术更替带来的效率提升,客户也会希望借助新技术,在激烈竞争的市场里做得比竞争对手好。


所以虽然大环境有挑战,但如果一些新技术真的能降本增效,符合业务发展逻辑,客户是愿意投入的。对我们来说,机会是永远存在的。


智能涌现:现在CSIG也持续在降本增效,但大模型还是非常昂贵的事情。CSIG怎么平衡投入产出比?


汤道生:腾讯集团整体在AI领域的投入还是很大的,混元是集团在投入,在CSIG做商业化;集团各处AI相关的投入,估计起码有三分之二的工作都和大模型相关,包括一些前沿技术研究与机器人的长期投入。


腾讯云(CSIG)一直投入在可持续商业化的AI产品能力上,支持企业客户打造针对业务场景的AI应用。除了前面提到的大模型技术与周边工具外,我们在过去几年也沉淀了很多模块化的AI PaaS服务,比如OCR、人脸核身、安全风控等等,在商业化上都有较好的投入产出。


最近一年,交互式数智人、智能推荐与文生图等技术也很受客户的欢迎。这些AI产品都能帮助云智能业务形成正向循环的商业模式,让我们可以持续投入下去。


智能涌现:现在AI圈中另一个比较担心的问题是,这一波大模型浪潮,是否会像上一波以CV为主的AI浪潮一样,走向集成、项目制的道路?


汤道生:国内企业客户采用标准化产品的意愿,短时间内还是挺难改变的。我们前几年做云业务也遇到同样问题,AI时代也一样。对于每个参与到AI这个大浪潮里的企业,我们还是可以选择做什么和不做什么,搞清楚强项和短板在哪,聚焦在自己能做好的领域。


智能涌现:如果从集团层面,腾讯对这轮AI大模型的定位、态度是怎么样的,这会是一个需要All in的机会吗?


汤道生:我们非常重视,高管也会定期交流,我们所有的业务都在思考怎么和AI结合。


比起成立一个单独的项目、一个团队来推进AI技术的研究与应用,我们现在更像一个混合模式。既有混元团队集中资源与精力办大事,打造通用智能的大模型服务;同时也让所有业务结合场景,用AI提升产品体验与业务效率。


比如,我们的企业社区产品腾讯乐享,通过打造AI助手,让用户在繁杂的企业资料库中,可以快速检索和内容提炼,帮助用户更高效找到所需要的信息。

用户在意的是有更好的体验,至于产品背后是AI,或者其他什么技术,对他们来说并不是那么重要。


智能涌现:对现在的市场占有率,腾讯云怎么看?在一些排名报告里,腾讯云现在排在国内第四。


汤道生:首先,我们并不了解其他厂商云收入构成的细节,我们更聚焦自身产品的健康发展与客户口碑。市场上的排名报告,会受到很多因素影响,很多公开数据的口径差异也很大。


我觉得大范围来看综合市场占有率,并不定义某个企业发展的成败。一个笼统的收入数字,反映不了业务的健康度,还需要把指标拆开,看收入的结构、利润率,是不是符合我们“健康可持续的业务”的战略和自己的预期。


另外,比起一个整体数字,我更关注我们的单赛道的产品,是不是做到了行业数一数二,有足够的竞争力,这个可能更有意义。


我经常和团队说,现在就是拼战略定力,不要被枝蔓所干扰。我们和昨天的自己比,产品业务更健康地发展,人效更高就很好了。


智能涌现:那现在,你们最看重的指标是什么?什么才能体现出业务健康程度?


汤道生:未来五年或者十年后,我最看重的,可能还不是我们的整体规模能到多大,而是会把每个产品的细分赛道都拆出来看,因为每个赛道的规模都不一样。


比如在线会议赛道,我会去看,腾讯会议到底服务了多少企业与用户,收入与利润能否养得起团队的持续投入;在云安全领域,就会看安全产品在公有云IaaS客户中也使用起来的比例;而公有云上的资源类产品,则会看服务质量、毛利率与综合成本等。


只要我们在几个关键的赛道,长期耕耘,把产品做扎实,腾讯云的业务就能持续发展下去。如果某产品的利润一直做不起来,长期养不起团队,那我们就应该果断放弃,把资源聚焦到更有发展空间的产品去,这个决策逻辑也很容易理解。



文章来自 “ 36kr ”,作者 咏仪


关键词: AI云 , 大模型 , 汤道生
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
智能体

【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。

项目地址:https://github.com/Significant-Gravitas/AutoGPT


【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。

项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md

2
知识库

【开源免费】FASTGPT是基于LLM的知识库开源项目,提供开箱即用的数据处理、模型调用等能力。整体功能和“Dify”“RAGFlow”项目类似。很多接入微信,飞书的AI项目都基于该项目二次开发。

项目地址:https://github.com/labring/FastGPT

3
RAG

【开源免费】graphrag是微软推出的RAG项目,与传统的通过 RAG 方法使用向量相似性作为搜索技术不同,GraphRAG是使用知识图谱在推理复杂信息时大幅提高问答性能。

项目地址:https://github.com/microsoft/graphrag

【开源免费】Dify是最早一批实现RAG,Agent,模型管理等一站式AI开发的工具平台,并且项目方一直持续维护。其中在任务编排方面相对领先对手,可以帮助研发实现像字节扣子那样的功能。

项目地址:https://github.com/langgenius/dify


【开源免费】RAGFlow是和Dify类似的开源项目,该项目在大文件解析方面做的更出色,拓展编排方面相对弱一些。

项目地址:https://github.com/infiniflow/ragflow/tree/main


【开源免费】phidata是一个可以实现将数据转化成向量存储,并通过AI实现RAG功能的项目

项目地址:https://github.com/phidatahq/phidata


【开源免费】TaskingAI 是一个提供RAG,Agent,大模型管理等AI项目开发的工具平台,比LangChain更强大的中间件AI平台工具。

项目地址:https://github.com/TaskingAI/TaskingAI

4
微调

【开源免费】XTuner 是一个高效、灵活、全能的轻量化大模型微调工具库。它帮助开发者提供一个简单易用的平台,可以对大语言模型(LLM)和多模态图文模型(VLM)进行预训练和轻量级微调。XTuner 支持多种微调算法,如 QLoRA、LoRA 和全量参数微调。

项目地址:https://github.com/InternLM/xtuner

5
无人直播

【开源免费】VideoChat是一个开源数字人实时对话,该项目支持支持语音输入和实时对话,数字人形象可自定义等功能,首次对话延迟低至3s。

项目地址:https://github.com/Henry-23/VideoChat

在线体验:https://www.modelscope.cn/studios/AI-ModelScope/video_chat


【开源免费】Streamer-Sales 销冠是一个AI直播卖货大模型。该模型具备AI生成直播文案,生成数字人形象进行直播,并通过RAG技术对现有数据进行寻找后实时回答用户问题等AI直播卖货的所有功能。

项目地址:https://github.com/PeterH0323/Streamer-Sales