ChatGPT 人工智能 GPT4 伦理 生成式 医疗 监管 安全 机器学习 深度学习 神经网络 计算机视觉 强化学习 模型 算法 应用 开发 研究 工具 平台 框架 数据集 训练 部署 安全 合规 培训 投资 LLM,llm AI,ai,Ai 大模型 大语言模型 制图 生图 绘图 文生图 文生视频 生成式AI AGI 世界模型 sora chatGPT,chatgpt,ChatGpt claude openai Llama deepseek midjourney 红熊猫模型 Red panda,panda Stable Diffusion,StableDiffusion,stable DALL- E 3 DALL E DALL Flux,flux 扩散模型 混元大模型 文心一言 通义千问 可灵 Pika PixelDance 豆包 月之暗面 零一万物 阶跃星辰 搜索增强 MiniMax Talkie Agent prompt fastai LangChain TTS 微调 提示词 知识库 智能体
# 热门搜索 #
搜索
对话袁进辉:必须实现Token自由,下一个“张小龙”才会出现 | 涌现36人
4454点击    2024-08-21 17:39

2023年中国大模型领域,经历最跌宕起伏的人。



涌现(Emergence),是生成式AI浪潮的一个关键现象:当模型规模扩大至临界点,AI会展现出人类一般的智慧,能理解、学习甚至创造。
「涌现」也发生在现实世界——硅基文明一触即发,AI领域的创业者、创造者,正在用他们的智慧与头脑,点亮实现AGI的漫漫征途。
在新旧生产力交替之际,《智能涌现》推出新栏目「涌现36人」,我们将通过与业界关键人物的对话,记录这一阶段的新思考。


在国内大模型市场,大概没有哪个人的经历,会比2023年的袁进辉更具戏剧性。


“坐过山车的一年,”硅基流动CEO袁进辉总结道,“年初,OneFlow是估值1亿美元的公司。被并购一个月后估值就超过10亿美元。两个月之后这个数字又变成零。再经过一个月成立硅基流动,又回到了起点。”


2023年,ChatGPT爆火之后,袁进辉创办七年的一流科技OneFlow,瞬间成为炙手可热的项目。这源于前美团联合创始人王慧文成立大模型公司“光年之外”,且迅速通过并购方式,邀请袁进辉作为联创加入。但数月后,光年之外因故被美团收购告一段落。


8月,袁进辉即宣布创立新公司“硅基流动”,方向还在老本行:AI Infra(AI基础设施)。


AI Infra相当于AI领域的“iOS”或“安卓”,上承算法和应用,下接硬件芯片。它的好坏与否,决定着下面的芯片层是否能将性能发挥到极致。AI Infra也是开发者们的“工具箱”,能帮助他们快速开发出AI模型和应用。


这个赛道是兵家必争之地。AI框架是AI Infra的重要组成,是被大厂和芯片公司“上下夹击”的一层——现在最广泛的AI开源深度学习框架PyTorch和TensorFlow,分别由Meta和Google主导开发。


在袁进辉看来,Infra和芯片都是AI的底座的重要组成部分。选择Infra方向,胜在走向市场的速度够快。“芯片公司做一款芯片,都要两年起步,远水解不了近渴。”袁进辉向《智能涌现》解释。


当下,正值AI大模型走向应用层的爆发时期,AI推理市场开始大规模增长。袁进辉的目标,就是在AI应用爆发之际,给开发者提供关键的“铲子”。


6月,硅基流动刚刚推出新产品SiliconCloud,目前已达日均百亿Token的调用量,团队还宣布多个主流模型服务永久免费——袁进辉也因此被许多开发者称为“赛博活佛”。


“必须扩大AI开发者的基数,让他们实现Token自由,才会有下一个“张小龙”的出现。”袁进辉说。


而纵观袁进辉的两次创业,都是关于证明自己、“舍我其谁”的故事。


七年前成立OneFlow,源于他看到的一个趋势:AI模型体量将会越来越大,但已有的深度学习框架难以承载,需要全新的基础设施。OneFlow成功打造出了世界前沿的分布式深度学习训练框架,不过当大模型突然成为共识时,却没来得及跑通商业化闭环。


现在,面对全新的AI推理市场,袁进辉渴望完成这道证明题。


在上一个互联网创业浪潮中,中国创业者往往被认为擅长模仿,快速迭代出最经济的商业模型。但袁进辉这样的创业者,代表着一种新时代技术创业者的面貌——从第一天创业起,就敢于站在世界舞台上,直面最前沿技术的竞争。


“AI框架就是一个赢者通吃的市场。无论我们面对大厂时多么弱小,资源多么匮乏,我们的雄心壮志,一直就是为全世界做最好的产品。”他说。


8月,硅基流动正好成立满一周年。《智能涌现》与袁进辉复盘了过去他的心路历程,以及聊了聊新出发后的风景。


以下为对话实录:


暴风眼中的一年


《智能涌现》:从去年8月份成立硅基流动,到现在也将近一年时间了。最近工作状态怎么样?


袁进辉:这一两个月我才缓过劲来,因为去年一整年就像坐过山车。2023年的半年时间里,我换了4家公司,从OneFlow,到光年之外,又到美团,然后8月份又分拆出来,就像大海风浪中的一只小船。


到了2023年下半年,大模型方向的投资也冷静下来。幸运的是,硅基流动成立以来顺利完成了几轮融资,资金上有了保障,现在产品推出后,还得到挺好的反馈,一定程度上缓了一口气。


这一年AI行业的创业者,应该都有一种推背感。


《智能涌现》:2023年时,为什么会选择和王慧文(原美团联合创始人)合作,让OneFlow被收购?当时其实王慧文去聊了非常多人,我们观察到,大家想法态度也都很不一样。


袁进辉:无论是科学家还是创业者,最本源是在追求做有Impact的事业。要做一件更大的事情,需要面对更复杂的局面、整合更多资源时,需要团队,是不是我自己把握方向盘不重要,有这样的ego是没必要的。当时的状况是,老王的产品、商业都是业内顶级,我们有技术、工程能力,其实是一个非常好的配置。


《智能涌现》:这段经历给现在的创业,带来了什么?


袁进辉:非常独特的一段经历。与老王(王慧文)一起共事,在非常短的时间里,学到非常多,共事的几个月里,很多事情我们几个联创会一起讨论,能感受到他的思考和决策方式。我个人收获最大的是商业、组织层面以终为始的思考——以完成更大、更远的追求和目标来倒推。


《智能涌现》:怎么理解这个“很大、很高”的目标?


袁进辉:顶级企业家所表现出的作风,不给自己设限,永远在迭代,永远在进步。


他们不会从自己有多少资源开始,再决定要去做什么事情,而是去首先思考世界、社会或者行业中最重要的问题是什么?再看要通过什么路径来实现。


《智能涌现》:你觉得以前并不是“工具箱”不够好,而是在于想得不够大?


袁进辉:以前想得也大,不过没有找到路径。那几个月正处在风暴眼中,迅速补完了很多课和Skill Set——这是打过仗才能获得的体会。老王打过仗,就像创业课的博导。


《智能涌现》:哪些思考让你最受益?


袁进辉: “先想清楚做什么事,事情对了,资源都会有,包括人与钱。”


事后,这些话都得到了验证。我们选择再创业的时候,一个突出矛盾是,大模型那时仍是最令人激动的事,但我们没有足够资源了,我们怎么才能有机会继续留在牌桌上,也要首先想清楚做什么事。


《智能涌现》:我们在去年采访老王的时候,听到过一模一样的话。


袁进辉:创业者要思考清楚那个特别客观的东西,就像雷军所说的“顺势而为”里的那个“势”。这个可以是趋势的“势”,也可以是事业的“事”。


《智能涌现》:分拆的时候,有过哪些选择?


袁进辉:选择非常多,几乎所有的大模型厂商都给我们抛橄榄枝了。还有很多大厂以非常夸张的薪资包裹来挖人,压力非常大。


《智能涌现》:所以这些朋友的鼓励,算是帮你消解了一些不确定性。


袁进辉:是的。整个环境趋冷的状态下,所有投资人或靠谱人才都会更理性,他们首先考虑这件事是否靠谱,这是说服别人开枪的最关键的一点。


《智能涌现》:硅基流动现在做的是什么事情,能用简单易懂的语言来解释下吗?


袁进辉:我们的技术核心是提供一个推理引擎。要有效利用大模型,需要几个关键要素:GPU、模型,以及让模型在GPU上运行并具备问答能力的引擎。这个引擎的关键任务是确保模型运行稳定、不损失精度,并且运行速度尽可能快,运行速度直接影响到使用模型的成本。


在一定的算力基础上,能够快速生成更多的Token,成本效益就更高。


《智能涌现》:也就是像大模型界的“水电煤”,随取随用。


袁进辉:现在国内外大家都比较喜欢讲MaaS这种产品形态,这实际上就是把模型、引擎、云上的算力整合成一个API。


开发者不需要自己去找GPU或优化引擎。他们只需注册,然后通过API调用模型并开发应用,按Token计费即可。大模型公司通常只提供自己的模型,但我们是一个中立第三方,提供业内常用的开源模型,如通义、智谱、DeepSeek、零一万物,以及海外的LLaMA、Mistral等。用户可以根据自己的需求选择最合适的模型。


《智能涌现》:你们以前做大模型的训练框架,再创业后,转向现在的推理框架。最后为什么还选择继续创业?


袁进辉:既有长远的问题,也有眼前的问题。我们需要选择一个很大的市场,另一方面,在达到最大的一个目标(AGI)之前,要保证我们在牌桌上,要生存下来。从这两个角度出发,我们都应该转去做推理。

《智能涌现》:这个市场有多大?


袁进辉:单纯从算力消耗来说,很快推理会远超训练。做训练方向的Infra,客户集中度很高,而且,大模型训练是阶段性的需求,训练数据通常是固定的,比如几万亿、几十万亿token的量级。但做推理,可能每天都是几万亿到10万亿Token,一周就超过了训练的计算量。而且,大家都认为模型推理成本下降是超级应用爆发的前提条件之一。


《智能涌现》:现在模型的训练和推理使用的算力,大概是在一个怎样的比例?


袁进辉:前段时间英伟达有个财报电话会透露,按销售出去的卡来算,训练和推理比例已经不相上下。由于中国比海外的节奏会慢几个月或者半年,所以国内可能训练会多一些。


但现在也在发生一些变化,我相信你们也注意到,随着开源模型水平上升,开源模型越来越多,已经能做出应用了。国内外行业的重心已经转到应用,而不是再去卷模型训练。我相信推理的算力已经超过训练。


《智能涌现》:最近你们也新上了产品SiliconCloud,效果大概怎么样?


袁进辉:我们公测时没有做任何的推广,但每天涌进来很多新用户,几天后单日调用量就超过几十亿Token了。大家对这个数字可能没有直观的感受。ChatGPT的调用量都是万亿到数万亿Token/天,国内知名大模型一天的Token总量几百亿或几千亿,所以我们也挺受鼓舞。


《智能涌现》:比起原厂的模型,你们的优势会在哪里?


袁进辉:首先,模型种类非常全面,甚至包括一些很挑战而稀缺的模型。像Deepseek 236B这样的模型要部署好,其实有很多挑战。目前为止,除了我们和官方,没有其他公司能将这些模型部署在自己的平台上。而且,好多开发者发现,同样的模型,在我们平台上的推理速度更快。


模型降价,比想象中早


《智能涌现》:5月开始,模型厂商纷纷降价。降价潮,你觉得是提早来了吗?


袁进辉:我们预计这个事一定会发生,但确实来得比想象早,比较突然,模型降价是Deepseek最早引爆的,其他各方主动也好,被动也好,都得跟进。


《智能涌现》:大家都是出于什么心态在做降价这个事情?


袁进辉:大家态度不是很相同,但降价也是势在必行。至少我们自己,用技术手段把成本真的做到了很低的水准,技术手段完全可以做到保证不亏本,甚至有钱赚。不过,业内绝大部分参与方还不是真正做到这一点,那就得补贴亏钱,非常有钱的厂商,可以这么做。


《智能涌现》:这算是对你们有利的吗?


袁进辉:是的,我们准备得足够充分。


5月份,Deepseek发新产品的时候,我们也没在第一时间推出来产品,两三周之后我们的MaaS上线,我们计划6月25号做推广活动,结果正好赶上OpenAI宣布对中国停服,我们就推出了部分大模型永久免费的活动。


《智能涌现》:我记得有一个报告提到,OpenAI在过去一年的推理成本下降了至少90%。无论是训练还是推理两边,成本都下降得非常快。这个趋势以后会怎么演变?


袁进辉:毫不夸张。我在一个开发者大会上做过一个报告,标题是《让模型部署成本降低1万倍》。


《智能涌现》:1万倍,怎么做到?


袁进辉:多方面综合发力。在芯片层面,有10倍的优化空间,最近有个很热的新闻,一位00后创立了一个芯片公司,做了一款叫Sohu的芯片,号称可以超过英伟达最新GPU10倍。模型层也有10倍。比如,现在100亿参数的模型能力,超过一年前的千亿参数模型。模型缩小了10倍,计算量也相应减少10倍。我们所在的基础设施层面至少也有10倍的优化空间,一年前运行缓慢的模型,现在可以运行得非常快。


还有底层的云计算,可以把算力部署在电费较低的地方,潮汐效应也有优化空间,白天服务一个区域,晚上服务另一个区域。综合下来,相对于一年前的水平,10000倍是可以做到的。


《智能涌现》:如果把硬件和软件分开来看,硬件的优化空间更大,还是软件?


袁进辉:在大模型推理上,软件的优化空间更大,这是由大模型推理本身计算负载的特点决定,它是访存瓶颈的任务,主要优化机会是软件层面的调度,不是芯片层面的问题。


《智能涌现》:如果软件的优化空间更大,是否意味着,未来对大模型公司来说,芯片不再是问题了?


袁进辉:应该是,芯片供应商会变得更加多元化。未来应该会有更多的芯片竞争者,一旦竞争充分,芯片价格有很大的下降空间。之前有人做过粗略估计,一张H100的制造成本大约3000美元,但售价高达3万美元,芯片成本有很大下降空间。


《智能涌现》:国内有不少创业公司出来做推理芯片,也想发展自己的软件生态。大厂也在竞争,比如百度的AI框架“飞桨”已经做了很多年,同时大厂都是全栈式打法。你们所处的赛道,刚好是夹在芯片层和算法层之间,上下两方都有可能侵蚀你们的赛道。


袁进辉:所有相关方都有竞合关系。其它赛道的玩家站稳脚跟后,也可能会向我们发起冲锋。


做推理方面的软件优势在于,能更快进入市场。芯片的开发周期长,即使现在开始做,也得两年后才能出来。现在解决当前问题只能靠软件。即使将来芯片出来,仍然需要软件基础设施。


《智能涌现》:所以这个事儿,相当于打个时间差的问题。在别人大规模做应用的情况下,我们能很快地进入这个市场。


袁进辉:是的。AI应用的基础设施中有几个环节,包括模型、芯片和软件,这些环节相互合作才能给用户带来能力。所以我们都是互补的,谁也离不开谁。


如果模型层竞争非常充分,比如很多模型公司要和OpenAI竞争,这个环节供给多元化的话,其他环节就会活得更舒适一些。反过来,如果OpenAI的宝座坐得稳,它也会垂直整合其他环节。所以,模型、芯片、Infra都在竞争底座的生态位,即基础设施的生态位。关键是谁先到达那个位置,或者谁能整合别人。


现在的模型,已经能支撑超级应用


《智能涌现》:我注意到你在朋友圈说,你觉得现在的模型能力已经足以支撑超级应用(Super APP)的出现,只是这样的应用还没有出现。为什么会有这样的判断?


袁进辉:大模型在三个方面的能力取得了突破。首先是语言能力,即模型说话是否流畅自然,大模型的语言能力甚至比大部分人都要好。


第二是知识能力。现在模型里有了一些知识,虽然有一些所谓的幻觉,但有手段去解决,比如大语言模型+RAG。


第三是逻辑。目前逻辑推理还不是很强,这限制了模型在复杂场景中的应用,特别是Agent。


我想表达的是,前两个能力在很多应用场景里完全足够做出惊艳的产品。


《智能涌现》:但无论是上下文长度或者幻觉问题,现在都还没有解决得非常好。


袁进辉:上下文长度已经做得很好了,幻觉也有RAG等技术可以克服。


《智能涌现》:所以就差逻辑了。


袁进辉:是的。我相信,基于当前这些开源的模型,完全能做出新的Super App,当然,Super App还需要另外一些条件,我们需要等待。


《智能涌现》:我们首先来对齐定义,你觉得Super App的定义是什么?


袁进辉:大家心里会有个标杆,比如类似抖音、微信这种量级的,日活非常高,用户离不开的产品。


《智能涌现》:这都是用户数到10亿级别的应用了。所以你是觉得,只是还没有人做出这样的创新而已?其实还有人说模型能力不够——这是最近大家常常提到的一点。


袁进辉:我不相信模型能力还不够这种说法。现在除了PMF,还开始讲TPF(Technology Product Fit),其实产品上足够有创意,不一定需要最尖端技术,介于GPT 3.5和GPT 4之间的开源模型对有的产品够用了。


《智能涌现》:能举个例子吗?


袁进辉:比如陪伴对话,模型可以表现得非常自然。注意到最近美团推出的产品Wow,在海外上线后,有一位留学生使用它来解决生活中的烦恼。楼上的邻居深夜开派对,影响她休息,但她不敢去交涉,Wow机器人一直给予她合理和理性的建议,就像一位朋友一样。当她需要用英文与邻居沟通时,Wow立刻转换语言,帮她妥善处理了问题。


我认为,这个场景需要的能力,开源模型都可以做到。


《智能涌现》:所以,开源模型和闭源模型的差距是在不断缩小的?


袁进辉:开源模型追赶速度还是很快,这也说明最前沿的闭源模型的迭代速度变慢了。


《智能涌现》:参照云计算的发展路径,其实云计算到现在已经是一个特别标准化的事情了,很早就陷入到同质化竞争。大模型的稀缺性能维持多久?


袁进辉:开源模型实现了让模型触手可及,现在不是那么稀缺了。以后会不会稀缺,还要再走一段时间,看是不是会出现大模型厂商的收敛。


真正做到特别Top的模型非常少,或许有的模型厂商以后重心就会转成应用了,甚至像朱啸虎讲的,几年之后没有所谓的模型公司,都是应用公司。


《智能涌现》:所以拼到后面,大家要拼什么?


袁进辉:现在最容易想到的是钱和GPU,模型的技术传播扩散还是很快的,以后很多公司都会模型技术,最后比拼模型之外的能力。最后都会反映到数据优势上。比如现在腾讯出了元宝,基于微信生态的内容,元宝的效果就非常好。小红书也很有优势。


《智能涌现》:所以,你会更看好大厂做的AI应用吗?


袁进辉:短期是大厂,长期我相信还有其他力量会起来。产品的创意和洞察具有偶然性。既然是偶然性,从概率角度来看,一个微小的概率,叠加一个巨大的基数,就很可观了。今天的大厂里做应用的人,加起来可能一两千人,但他们之外,做应用的人可能是数百万之众。10年前,大家也不会想到有人能挑战BAT,但总有新的公司出现。


《智能涌现》:从环境上来看,这跟上一个时代的创业一样吗?现在无论是钱、人才,可能都不太能相比。


袁进辉:AI也会有所谓的“傻瓜窗口期”,在一定阶段内,可能都不会有多少人注意到他们。当年快手起来时,很多人对这个产品后知后觉,并没注意到原来五环外还有这么一个需求。


《智能涌现》:以后,国内有什么方面能够做到世界顶尖的水平吗?


袁进辉:客观来说,现在我们的芯片、模型,还不是世界顶尖。但在AI Infra领域,我很自信地说,我们肯定是世界顶尖,可以把国内外大厂的模型响应体验、水准进行直接对比。在全世界都有竞争力,所以我们也在做出海。


《智能涌现》:框架层,还是大公司主导的领域,比如Facebook的PyTorch、百度的飞桨等,很讲开源生态。中国公司想要出海,难度会在哪?


袁进辉:中国企业出海,开源是一个有效的手段,开源没有国界,一些中国的开源项目在全球也产生了影响。


如果产品界面足够清晰,足够标准,容易嵌入已有的生态系统,只要能让潜在用户知道且低成本尝试,就能和用户建立联系。


例如,MaaS产品就是一个API调用,界面非常清晰,所有供应商都一样,从一个地方迁移到另一个地方不需要任何改动。只要满足大家最关心的基础指标,如服务保障、响应速度、成本等,出海也相对容易。

《智能涌现》:现在,硅基流动的海外商业化进展怎么样?


袁进辉:我们的MaaS服务推出之前,软件订阅在海外就已经有10来个付费客户了。


《智能涌现》:以后的重心会放在国内还是海外?


袁进辉:客观来说,海外MaaS市场更大,国内海外并重。我们更熟悉在国内开发者社群做产品和推广,所以先从国内起步,海外产品也上线了。


《智能涌现》:关于商业化这件事情,有什么东西是你现在坚持要做的?有什么事就不做了?


袁进辉:关键的一点是,创业公司资源有限,必须找到一个非常好的点,深入挖掘,实现突破。切口可以小,但要切得深。无论这个点多小,都要在整个行业,甚至全球范围内确立优势。然后,将这种模式或方法论扩展到更广泛的产品或方向上。


而不是一开始就什么都做,但什么都不精,这是很多公司遇到困难的原因。


《智能涌现》:这种转变,跟现在的投资环境很有关系。


袁进辉:资金不是那么充沛的情况下,也逼迫着每位创业者去思考,在更加节俭的状况下做到引爆点。我觉得大家有一个共识,就是做强比做大更重要,更加健康。


《智能涌现》:你预计往后做的话,硅基流动还大概会需要多少钱,多少资源?


袁进辉:以现在的增长速度来看,我甚至冲动地觉得,不一定需要再融资,就能把生意转起来,而且建立起比预期还要好的循环。当然,理性地看,还是应该拿到更多的资金,这样做成功的概率更高,更有保障。


《智能涌现》:为什么现在就能实现了?


袁进辉:内外部条件都比较成熟。外部看,行业发展到了需要我们产品的阶段,市场需求旺盛,而我们恰好处在正确的位置,一切都变成了我们的助力。


内部看,我们现在的技术水平,在同类产品里也是世界上最能打的团队。商业化方面最近也有顶尖高手加盟。


预测长期变得非常困难


《智能涌现》:这次新创业,目标有变化吗?


袁进辉:和以前AI框架一样,我们面对的是赢者通吃的市场,一旦决定做这件事,目标就是做成全世界都需要的产品。不管我们开头多么弱小,相对于大厂资源多么匮乏,想的就是为全世界做最好的东西,这一点没有变。


《智能涌现》:跟当年创立一流科技的时候相比,你的心态有发生什么变化吗?


袁进辉:当年做OneFlow时还名不见经传,当时做这样的事情只有谷歌这种大厂,我们经常要说服别人,这事我们真的能干好。现在不需要了,好玩的是现在实现了声誉自由,很多人相信我们不仅能做,而且能做最好。现在追求的是更完整的成功,不光是技术有多厉害,还有产品、商业化、组织、文化等方面的成功。


《智能涌现》:什么事变得更难了?


袁进辉:做OneFlow时,我们提前多年就预判了一个趋势:大模型会出现,我们提前好几年为大模型做Infrastructure,而且很长时间内别人不信,只有我们相信,当时的窗口期非常之长,所以就很从容。

但现在,大模型就是明牌,节奏非常快,一天一个变化,想做非常长期的预测,变得非常困难。


《智能涌现》:五年之后,比如说你觉得哪些事情,但目前还是没有办法解决的?


袁进辉:有些能力也许根本不在大模型的能力范围之内。大模型的价值观是我们教给它的,它可能不会有真正的主观追求和情感。


另外,语言模型之所以先爆发,是因为自然语言有良好的数字化基础,有大量的语料,但迁移到其他领域,譬如和真实世界的交互——具身智能等领域,历史数据非常少,收集这些数据也面临很多困难,我不知道这些问题在五年内能否解决。


《智能涌现》:过去一年,市场上有没有一些共识的出现,是让你觉得特别惊喜的?


袁进辉:大家普遍开始认为应用非常非常重要,即使是OpenAI现在也开始亲自上阵或以并购的方式为应用产品做准备。


《智能涌现》:有没有一些你自己之前非常坚定相信的东西,在这一年里会发生一些变化?


袁进辉:一年前我高估了大模型的难度,没有预料到其他玩家追上OpenAI的速度这么快。应该有不少人和我一样想错了。去年上半年,绝大多数人还在猜测谁能搞出GPT-3.5,现在是家常便饭了,现在普遍要追上GPT-4.0,甚至Claude都已经开始超过4.0。



文章来自于微信公众号”咏仪“ 作者"咏仪"




关键词: AI , Token , 涌现 , AI Infra
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
智能体

【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。

项目地址:https://github.com/Significant-Gravitas/AutoGPT


【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。

项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md

2
RAG

【开源免费】graphrag是微软推出的RAG项目,与传统的通过 RAG 方法使用向量相似性作为搜索技术不同,GraphRAG是使用知识图谱在推理复杂信息时大幅提高问答性能。

项目地址:https://github.com/microsoft/graphrag

【开源免费】Dify是最早一批实现RAG,Agent,模型管理等一站式AI开发的工具平台,并且项目方一直持续维护。其中在任务编排方面相对领先对手,可以帮助研发实现像字节扣子那样的功能。

项目地址:https://github.com/langgenius/dify


【开源免费】RAGFlow是和Dify类似的开源项目,该项目在大文件解析方面做的更出色,拓展编排方面相对弱一些。

项目地址:https://github.com/infiniflow/ragflow/tree/main


【开源免费】phidata是一个可以实现将数据转化成向量存储,并通过AI实现RAG功能的项目

项目地址:https://github.com/phidatahq/phidata


【开源免费】TaskingAI 是一个提供RAG,Agent,大模型管理等AI项目开发的工具平台,比LangChain更强大的中间件AI平台工具。

项目地址:https://github.com/TaskingAI/TaskingAI