图片来源:红杉资本
Sonya Huang: 今天我们很高兴邀请到Fireworks的创始人兼CEO林乔。林乔是一位AI基础设施领域的重量级人物,曾在Meta领导PyTorch项目,这是整个全球机器学习生态系统的支柱。她将自己在PyTorch的经验带到了Fireworks,打造了一个面向生成式AI的推理平台。我们很期待向林乔请教有关AI推理的市场趋势,以及她计划如何在Fireworks支持并加速向复合AI系统转变的市场变化。
Lin Qiao: 感谢邀请我。
图片来源:Fireworks
Sonya Huang: 今天我们非常期待和你讨论很多话题,从PyTorch到你正在构建的小模型栈,再到你在企业生产部署方面看到的趋势。但在我们开始之前,你能不能用一两句话介绍一下你在Fireworks做的事情?
Lin Qiao: 我们在2022年创立了Fireworks。Fireworks是一个面向通用AI推理和高质量调优的SaaS平台。特别是通过我们的小模型栈,我们可以在实时应用中实现非常低的延迟、非常低的成本以支持可持续的业务增长,同时还能够实现定制化、自动化的高质量定制服务,专门为企业量身定制高质量的解决方案。这就是Fireworks。
Sonya Huang: 太棒了。我想先聊一下PyTorch的故事。PyTorch几乎是当今整个AI行业运行的基础。你和Dima以及其他一些联合创始人在Meta领导了这个项目。我们可以从这里开始——假装我是一个五岁的小孩,你能不能像对五岁小孩解释一样,向我解释一下PyTorch是什么?
Lin Qiao: 可以这样理解,PyTorch就像是为“数字大脑”设计的编程语言,专为研究人员设计,能够非常容易地创建这些“数字大脑”并进行实验。但是,PyTorch的挑战在于,虽然它能让人们快速地创建各种不同的深度学习模型,也就是“数字大脑”,但是这些大脑的“思考”速度还不够快。这是我在PyTorch工作时着手解决的挑战。
Pat Grady: 你之前提到过,很多试图构建类似于Fireworks的公司选择了框架无关的方法,而你们却非常坚定地押注在PyTorch上。你能说说为什么要押注在PyTorch上,以及这给你的客户带来了什么好处吗?
Lin Qiao:这其实是基于我在PyTorch和Meta以及整个行业中的经验。我清楚地看到,PyTorch最初是为研究人员设计的工具,它开始主导模型创建的上层阶段,然后接下来的阶段就是人们进行实际的生产应用。他们会把这些研究模型测试应用于生产环境,验证假设,然后投入生产。所以这是一个非常清晰的漏斗效应。
由于PyTorch是为研究人员设计的,它占据了漏斗的顶部,人们很难将这些模型重新写入其他框架进行生产。自然地,这些模型就会流向漏斗的底部,最终PyTorch成为了主导。我看到越来越多的模型,尤其是一些新兴的模型,都是用PyTorch创建并在生产中运行的,包括通用AI模型。这就是为什么我们只押注PyTorch,而不想分散注意力去支持其他框架的原因。
Pat Grady: 所以研究人员喜欢它,然后它就从那里向下流动。研究人员为什么这么喜欢PyTorch?
Lin Qiao: 简单性。简单性是可以扩展的。这是在Meta领导PyTorch并建立社区过程中学到的一个教训。这是一个不懈的追求简单性的过程。我们一直在不断地寻找如何让用户体验变得越来越简单,并将更多的复杂性隐藏在后台。例如,当我在Meta开始这段旅程时,有三个不同的框架。Caffe2用于移动端,ONNX用于服务器端生产,PyTorch用于研究人员。这太复杂了。我们的使命是将三个框架简化为一个,但这实际上是一个不可能完成的任务。
在我整合了所有三个团队后,并没有达成如何简化并构建这个单一栈的共识。我们采取了非常理想主义的做法,采用PyTorch的前端和Caffe2的后端,并决定将它们结合在一起。这看起来很简单,但实际上很难做到,因为这两个框架从未设计为可以一起工作。其集成的复杂性甚至比从头开始构建一个框架还要高。所以太复杂了。
然后我们决定放弃这一想法,只专注于PyTorch,保留其简单美观的前端并重建后端。于是我们开发了TorchScript,这就是PyTorch 1.0。这实际上说明了专注于简单性随着时间的推移会取得胜利。
另一个有趣的事情是,我们认为用PyTorch替换其他框架作为库是简单的,只是更换库而已,有多难呢?但是我们意识到——我们原以为这只是一个六个月的项目,结果却变成了一个五年的项目,支持整个Meta的AI工作负载在PyTorch之上运行。因为我们不得不从头开始重建整个栈,考虑如何高效地加载数据,如何在PyTorch中高效地进行分布式推理,如何高效地扩展训练。最后我们在PyTorch之上重建了整个推理和训练栈。当我们离开时,它每天支持超过五万亿次推理。这是一个巨大的规模。但这花了五年时间。而Fireworks的使命是显著加速整个行业的上市时间,将五年的时间压缩到五周,甚至五天。所以这就是我们的使命。
Sonya Huang: 太棒了。在开源标准上,很多人试图使用vLLM或TensorRT-LLM来实现这些目标。你怎么看待Fireworks与这些开源项目的对比呢?
Lin Qiao: 我非常喜欢这两个项目,因为基于我在PyTorch的经验,我更倾向于开源。这两个项目对于社区来说都是非常棒的项目。我认为我们最大的差异化在于,首先,Fireworks的即用型产品比这两个项目都要快。其次,我们是在构建一个系统,而不仅仅是一个库。我们的系统可以根据开发者或企业的工作负载自动调优,达到更快的速度和更高的质量,而这仅靠一个库是无法实现的。我们正在构建所有这些复杂功能。回到我们在PyTorch的旅程,我们提供了一个非常简单的API,但在幕后隐藏了很多自动化的复杂性、自动调优的复杂性。
例如,当我们提供高性能的推理时——这里的高性能意味着低延迟和低成本——我们手写了CUDA内核。我们在多个节点之间实现了分布式推理,还在GPU之间进行了分布式推理,将模型切割成不同部分并分别扩展。我们还实现了语义缓存,这样在给定内容的情况下,我们不必重新计算。我们捕捉了应用程序工作负载的特定模式,并将其构建到我们的推理栈中。
我们还有许多其他优化措施。我们针对不同的用例进行了专门设计,而不是通用的或横向的设计。这些都被封装起来了。我们还对量化进行了复杂的优化。你可能会想,哦,量化就是一种技术,能有多难呢?但实际上可以量化很多不同的东西。你可以量化KV缓存,量化权重,量化跨GPU和跨节点的通信,从而获得不同的性能提升和质量折衷。我们还自动化了质量优化。我们在幕后做了很多事情,以提供给应用开发者一个非常简单的体验,让他们能够专注于在应用端进行创新。
Pat Grady: 我喜欢你之前提到的“简单性可以扩展”的观点。当你讲述你为了给客户提供如此简单且愉快的体验而构建的所有内容时,这让我想到了“复杂性守恒”这个概念。为了完成某项任务所需的复杂性是无法凭空产生或消失的,只是看是谁承担了这些复杂性。
Lin Qiao: 你说得对。
Pat Grady: 看起来你的业务是一个拥抱了大量复杂性的业务,以便为客户简化生活。实际上,我的问题是关于你的客户的。在客户的AI旅程中,他们在哪个阶段会说,“等等,我们需要更好的东西”,然后是什么吸引他们来到你们这里?
Lin Qiao: 我们看到一个相当一致的模式,去年人们都从OpenAI开始,因为他们处于重度实验/探索模式。很多创业公司有一些有创意的想法、应用产品的想法,他们想要探索PMF,所以他们想从OpenAI提供的最强大模型开始。然后,当他们觉得达到了产品市场契合时,他们想要扩展业务。然后问题就来了,因为正如我提到的,大多数生成式AI应用是面向B2C(消费者、个人、市场、开发者)的。它需要非常高的响应速度。低延迟是产品可行性的重要部分。没有低延迟,产品就不具备可行性。人们没有足够的耐心等待半分钟来获得回应。这是行不通的。所以他们在积极寻找低延迟。另一个关键因素是,他们想要建立一个可持续、可行的业务,不能很快破产。奇怪的是...
Pat Grady: 在这个市场上可不能破产。
Lin Qiao: 奇怪的是,如果他们有一个可行的产品,这意味着他们可以快速扩展。如果他们在小规模时就亏钱,他们会很快破产,对吧?所以降低总拥有成本对他们来说至关重要。这就是为什么他们会来找我们。
Pat Grady: 听起来——我记得大约一年前你有一个这样的见解,我们讨论过,训练往往与研究人员的数量成比例增长,而推理则往往与客户的数量成比例增长。从长远来看,AI产品的客户可能会比AI研究人员多,因此推理是未来的重点领域。听起来你的客户旅程大致开始于人们从训练转向推理。哪些类型的应用程序和公司在这个阶段开始真正进入生产阶段?
Lin Qiao: 这个问题有很多种回答方式。确实是一个非常有趣的问题。首先,我在创业时的假设是,我们会首先专注于初创公司,因为它们在技术上最为先进。会有大量的初创公司建立在生成式AI的基础上。然后我们会转向数字原生企业,因为它们在技术上领先,然后我们会转向传统企业,因为它们在技术上相对保守,它们想在技术和产品理念成熟时进行观察和采用。这是我的假设。而目前发生的事情完全颠覆了我的认知,因为我们不仅有大量的初创公司接洽,我们也在与数字原生企业合作,同时还在与传统企业合作,包括健康保险公司、医疗公司和银行。
尤其是对于这些传统企业,通常我会调整我的推介方式,更加注重业务导向,因为你知道,这可能是我的偏见,我想与他们进行有意义的对话。但他们很快就会深入到非常低级别的技术细节中,与我进行非常深入的技术讨论,这非常具有吸引力。
Pat Grady: 在传统企业中,你通常会与哪些人接触?比如是创新部门的人、AI部门的人,还是更多是业务线领导、拥有生产应用的人?
Lin Qiao: 我认为这一点正在发生变化。我们最初更多地与CTO接触。我感觉这个行业正在向以创新驱动的业务转型发展,这就是为什么我们遇到的CTO比COO或其他CISO更多的原因。这是一种有趣的转变。但总体上,我认为发生这种情况有多个基本原因。这是我的假设。首先,所有领导者都意识到当前的生成式AI浪潮类似于云优先转变,或者类似于移动优先转变。它将重新绘制行业的格局。初创公司正在快速增长,如果老牌公司不能足够快地创新,它们将被淘汰,变得无关紧要。此外,在这些老牌公司之间,他们也在激烈竞争。他们在竞争如何快速转型业务,以利用生成式AI创造更多收入,提高效率。这是一种现象。
第二种现象是生成式AI与传统AI不同。我会说这非常不同。传统AI赋予了超大规模公司很多力量,对吧?因为传统AI通常需要从零开始训练。你没有建立在基础模型上的概念,这意味着你必须自己去收集所有数据。通常,拥有大量数据的公司是超大规模公司,你需要大量的资源投入来训练自己的模型等等。这是在生成式AI之前的情况,它的成本较高,集中在超大规模公司。生成式AI之后,由于有了基础模型的概念,人们在基础模型之上进行构建,而不是从零开始训练。从头开始训练毫无意义。所有的数据都是互联网上可以抓取的数据,模型架构也大同小异。从头开始训练是浪费资源——你进行微调。你基于你的小数据集进行调优,高质量的小数据集。因此它变成了一个小数据、小模型的问题。这使得每个人都更容易负担得起并获取这种技术,这就是为什么每个人都纷纷跳进来拥抱它的原因。
Sonya Huang: 你们的客户中有多少在使用你们进行微调,而不是仅仅使用基础模型?你认为打造一个优秀的微调产品需要什么?
Lin Qiao: 这实际上取决于他们试图解决的问题。我们实际上看到开源模型变得越来越好。开源模型和闭源模型之间的质量差异正在缩小,我的预测是它们最终会在同一模型大小范围内趋同。
Pat Grady: 你认为开源和闭源会趋同吗?
Lin Qiao: 开源和闭源会趋同。
Pat Grady: 你认为会不会有一个时间差,闭源总是领先六个月?还是你认为它们会并驾齐驱?
Lin Qiao: 对于相同模型大小,尤其是在70亿参数到1000亿参数之间的模型,质量会趋同。这是我的预测。我们拭目以待,看看几年后会怎样,我们可以再回来讨论这个话题。所以这里的关键是定制化,对吧?如果这个趋势是真的,那么关键的差异化在于我们如何针对个人的使用场景和工作负载来定制这些模型。
Sonya Huang: 定制开源模型是否比定制闭源模型更容易?你怎么看待这个问题?
Lin Qiao: 我不会说更容易。只是开源模型往往有一个更丰富的社区,有更多的人在这些模型的基础上进行构建。例如,Llama 3模型是一个非常非常好的基础模型。它在遵循指令方面非常强大,能够很好地执行指令,所以很容易对其进行调优,使模型很好地解决特定问题。例如,我们战略性地投资于函数调用作为一个方向。我们可以详细讨论这个话题,它本身就是一个话题,但我们发现基于Llama 3微调一个函数调用模型要比基于混合模型或之前的Llama 2和其他模型进行微调容易得多。所以这只是说明——开源基础模型在指令执行、逻辑推理和许多其他基础能力方面变得非常强大,所以很容易将其转变为一个高性能模型,以解决特定的业务任务。这就是小模型的力量。
Pat Grady: 如果我们回顾一下开源软件,20年前,开源软件通常被认为是快速跟随者,比如Red Hat就是一个典型的例子。而最近,开源软件不再是快速跟随者,实际上是创新者,比如Mongo或Confluent这些伟大的开源企业。你认为在模型领域,是否存在开源将领先于闭源,并且实际上超越专有模型的情况?
Lin Qiao: 现在的动态非常有趣,因为专有或闭源模型提供商通常押注于少数模型,比如OpenAI的LLM模型可能就三种模型,或者你可以把它们看作一种模型。模型是什么?模型就是模型架构和数据、训练数据。我很确定它们所有的模型在训练数据上差别不大。模型架构也差不多,所以更多是规模、参数等因素的差异。
不仅是OpenAI。我认为Anthropic或Mistral以及其他这些模型构建者,他们也必须集中精力专注于特定的模型领域。这是最佳的投资回报率,也是他们的商业模式。但开源推动了不同的动态,因为它让很多研究人员能够在其基础上构建。这就是小模型现象。小模型更容易调优,更容易提高质量,更容易专注于特定的问题空间,所以它让千花齐放。所以我们相信的方向是,为了解决企业问题,千花齐放对企业来说要好得多,因为企业会出现很多问题。事实上,在任何一个问题空间里,总有一个适合你的解决方案。然后我们进一步根据你的使用场景和工作负载进行定制化。你得到的是更好的质量,更低的实时应用延迟,更低的业务可持续性和增长成本。所以我们相信这个方向。
Sonya Huang: 也许就这一点来说,你有没有看到你的客户在转向Fireworks栈后,能够达到与使用OpenAI时相匹配的质量?你是如何让我称之为“小而强大”的栈来竞争的?
Lin Qiao: 是的,这实际上取决于领域。在某些领域,实际上人们甚至不需要进行微调,他们直接使用现成的模型,效果已经非常非常好了。例如,在编码、代码生成、转录、翻译、OCR等领域,这些模型已经非常出色。这些模型是现成的,可以直接使用的。但是在某些领域,需要应用业务逻辑,因为每家公司对“好”的定义是不同的。当然,现成的模型无法直接使用,因为它们不理解业务逻辑。
例如,分类任务。不同的公司希望分类——有些市场希望分类出这是家具还是餐具还是其他什么东西,这完全取决于他们的领域。或者是摘要任务。你可能认为摘要是一个非常通用的任务,但例如,保险公司希望将摘要归纳为一个非常特别的模板,对吧?还有其他一些特定的业务任务和许多其他事情。我们在各个不同的问题上都进行合作,而这些问题需要进行微调。
我想强调一下:微调听起来简单,但实际上一点也不简单。整个过程需要企业或开发者收集数据,这是第一步,他们需要进行追踪。在追踪之后,他们需要标记数据。在标记之后,他们需要选择使用哪种微调算法。有监督微调,有DPO,还有一系列基于偏好的微调方法,比如他们不会标记绝对好的结果,而是基本上说“我更喜欢这个而不是那个”。他们需要决定是使用参数高效的微调方法如LoRA,还是进行全模型微调。对于某些任务,他们不仅需要调整模型权重,还需要调整超参数。
在这些众多技术中,他们需要弄清楚什么时候该使用什么等等。这非常深入。通常这些应用开发者甚至还没有接触过AI,他们需要学习很多东西。然后一旦他们进行了微调并测试了模型,虽然在某些方面有所改进,但在其他一些情况下仍然不够好,他们需要捕捉这些失败案例并分析是应该收集更多数据再经历这个循环,还是这是一个产品设计的问题。非常有趣的是,有些失败案例实际上并不是真正的失败案例,只是他们还没有设计好产品应该如何反应。
例如,人们正在构建一个系统,当用户输入内容时自动生成内容。如果你在一个表格中,光标在一个单元格中——自动生成是什么意思?你是自动扩展你在单元格中输入的内容?还是生成更多的行?还是什么都不做?所以这实际上是产品设计的问题。因此,这需要产品经理参与进来思考失败案例。所以面对所有这些复杂性,我们想要做的是去除基础性的工作,去除选择使用哪种微调方法、如何自动标记数据、如何自动从生产中收集数据的复杂性。我们想去除所有这些,保留一个简单的API供人们使用,但将设计部分留给我们的终端用户。例如,产品应该如何响应应该完全由他们来决定和解决,所以我们希望创造这样的分离。我们已经开始朝这个方向努力,希望我们很快能在那里发布我们的产品。
Pat Grady: 我喜欢你提到的这种解放人们的想法,让他们不用从技术出发思考,而是从客户需求出发,利用你们构建的所有基础技术,真正专注于设计模式和可用性,并确保他们能够以令人信服的方式从头到尾解决一个重要问题。你对Fireworks平台的愿景是什么?
Sonya Huang: 你对Fireworks平台的愿景是什么?正如Pat刚才提到的,复杂性守恒,我们在这个播客的开头讨论了你如何在推理栈上为客户保留复杂性。你刚才又谈到你如何在微调工作流方面为客户保留复杂性。那么,还有哪些其他部分需要整合在一起,最终你对Fireworks产品的愿景是什么?
Pat Grady: 如果一切顺利,五年后你们将会构建出什么?
Lin Qiao: 我们的北极星愿景是通过一个简单的API访问全部知识。所以现在我们正朝着这个方向前进。我们已经提供了超过100个模型,涵盖了大语言模型、图像生成模型、音频生成模型、视频生成模型、嵌入式模型和多模态模型——比如以图像为输入提取信息。这是基础模型覆盖的一方面。
但即使把所有的基础模型放在一起,知识的覆盖仍然有限,因为训练数据是有限的。训练数据有开始时间和结束时间。即使是可以在互联网上抓取的所有信息也是有限的,因为有很多知识隐藏在API背后,隐藏在你无法访问的公共API背后,或者你无法获得实时信息。有大量的私有API托管在企业内部,外部人士无法访问。所以,我们如何让企业访问全部的知识呢?方法是在不同模型和公共/私有API之间建立一个融合层。
这就是我们的愿景。实现这个愿景的工具是函数调用模型。基本上,这个模型能够理解你需要访问哪些API以及出于什么原因。它可以自动成为最精确调用这些API的路由器,无论是访问模型还是非模型API,都能做到最精确。
从战略上讲,构建这种简化的用户体验极其重要,因为我们的客户不需要自己去摸索,不需要绞尽脑汁去弄清楚,“哦,我需要微调才能访问这些API。自己怎么做呢?这对我来说太难了。”我们希望大家可以理解,因为许多人熟悉“专家混合”的概念。OpenAI提供了专家混合,专家混合成为一种非常流行的模型架构。其概念是在几个非常大的专家之上有一个路由器,每个专家专门做自己擅长的事情。而我们的愿景是构建一个可以访问数百个这些专家的混合专家,每个专家都更小、更灵活,但在解决特定问题上具有高质量。
Pat Grady: 在这个愿景中,这些专家是存在于Fireworks中,AWS中,还是Hugging Face中?这些与Fireworks作为总体框架一起使用的专家从何而来?
Lin Qiao: 我们的目标是这些专家存在于Fireworks中。这是我们希望为此目的策划我们的模型的地方,这也是为什么我们今天已经有超过100个模型。构建这一层并使其非常稳固需要一些时间,但我们将发布下一代函数调用模型。这个模型非常非常好。提前透露一下,它有多层突破,我们会与演示和示例一起发布,人们可以利用它并在其基础上进行构建。
Pat Grady: 非常酷。
Pat Grady: 你认为Nvidia在未来会面临可行的竞争对手吗?
Lin Qiao: 这是个非常有趣的问题。首先,我认为Nvidia在一个非常有利可图的市场中运营,而任何有利可图的市场都会吸引竞争。这就是经济学的基本原理。此外,从整个行业的角度来看,通常行业不喜欢垄断。这也是来自行业的另一种趋势压力。所以我认为问题不在于Nvidia是否会有竞争对手,而是在于何时会出现竞争对手。
Pat Grady: 你认为竞争很快就会来临吗?
Lin Qiao: 我认为很快就会来临。我的意思是,显然我们可以在多个领域看到Nvidia的竞争。在通用竞争领域,AMD在GPU市场上正在崛起。这很有趣。而且我认为在AI的特定领域中,当AI模型空间稳定下来,没有更多的创新时——比如问题已经很好地定义了,而这是模型,那么定制的ASIC将发挥其作用。所以我会从这个角度来看市场,我确实认为很快就会有竞争到来。
Pat Grady: 顺便问一下,因为你们处在市场的这一部分,在某种程度上是模型无关的,当涉及到将这些模型投入生产时,实际上是关于这些模型的优化。你认为在前沿领域的规模报酬——那些处于尖端的模型,规模报酬是否开始放缓?你认为我们会进入一个能力开始成熟或趋于平稳的阶段吗?竞争更多的是关于这些能力的优化、调优和应用?
Lin Qiao: 我认为这两者会同时发生。一方面,从模型适用性的角度来看,它将开始稳定并趋于平稳,而我们将大量定制。我们的策略是高度定制以适应使用案例和工作负载。这是一个方向。另一方面,我想提醒的是——比如在Meta,我们也曾在一段时间内认为这是排名推荐的模型,对吧?所以我们应该大量依赖这种假设。但几年后情况就不是这样了。在看似稳定的建模空间中,出现了大量的模型创新,推动了Meta的S曲线。我认为在生成式AI领域会发生同样的现象,会出现一种新的模型架构。而且我们已经有点过期了。
Sonya Huang: 你提到过我们已经讨论了来自其他供应商、其他直接竞争对手的竞争。那么OpenAI呢?OpenAI是否让你夜不能寐?他们经常降低API的价格,也在改进他们的模型。他们也在争取成为更好、更快、更便宜的竞争者。你是如何看待他们的?你认为你们最终会构建出与他们不同的东西吗?
Lin Qiao: 再次重申,我觉得他们实际上是在走向更小、更便宜的方向。我认为,对于相同模型大小、相同模型类型,无论是闭源还是开源,质量都会趋同。这是我的预测。而真正有意义的事情是推动边界,即进行大量定制,或者说是针对个别用例和个别工作负载的自动化定制。我不确定OpenAI是否有这个胃口去做,因为他们的使命是AGI。如果他们坚持他们的使命——这实际上是一个伟大的使命,但它解决的是一个不同的问题,而不是解决企业问题。这基本上意味着有很多问题,很多特定的问题,实际上非常适合小模型来进行定制。这就是我们希望集中精力的地方,并在开源模型的基础上进行构建,假设它们的质量趋同这一趋势。
Sonya Huang: 喜欢这个观点。我们的合伙人Roelof上次你来时提到,在之前的技术浪潮——互联网、移动互联网中,是那些致力于降低运行成本的人们,实际上推动了所有应用程序的发展,以及我们每天享受的所有最终用例。我很喜欢你在AI领域采取了这一相同的方法,现在在生产环境中运行AI对于大多数人来说仍然成本高昂。通过大幅降低成本曲线,你实际上在帮助整个行业蓬勃发展。所以这真的很棒。我们要用一些快速提问来结束吗?
Pat Grady: 是的,我们开始吧。
Sonya Huang: 好的。让我想想。你最喜欢的AI应用是什么?我们经常进行视频会议,而视频会议的笔记记录工具对我们来说是一个改变游戏规则的东西,不管是哪一种。有很多不同的种类,但我就是很喜欢这个。
Pat Grady: 你们用的是哪一个?
Lin Qiao: 我们用的是Fathom。是的,我们的销售团队用这个。它在培训和摘要方面非常好。显著缩短了我们的时间。
Sonya Huang: 很好。你认为2024年表现最好的模型会是哪一些?
Lin Qiao: 我的预测是会有很多,因为每周都有新的模型出现。在LMSys的领域,它们彼此竞争。所以这对整个行业来说都是好消息。真的很难预测是哪一个,但我比较有信心的预测是模型质量会持续提升和增强。
Pat Grady: 在AI领域,你最钦佩的人是谁?
Lin Qiao: 我会说是Meta。这不是指某一个人,而是Meta对开源的承诺。我认为Meta在生成式AI的发展过程中,通过持续开源一系列的Llama模型,不断推动边界,持续缩小质量差距,最为杰出。Meta正在做的事情基本上是将权力从超大规模公司下放到每一个有创新基础模型、生成式AI模型梦想的人。我认为这真的很聪明。
Sonya Huang: 喜欢这个。好的。今年,智能代理会表现出色还是让人失望?
Lin Qiao: 我非常看好agents。我认为它会蓬勃发展。
Pat Grady: 我们的问题就这些了。
Lin Qiao: 好的!
Pat Grady: 谢谢你。
Lin Qiao: 这次对话真的很有趣。谢谢邀请我。
文章来自于“Z Potentials”,作者“Yudan Mao”。
【开源免费】n8n是一个可以自定义工作流的AI项目,它提供了200个工作节点来帮助用户实现工作流的编排。
项目地址:https://github.com/n8n-io/n8n
在线使用:https://n8n.io/(付费)
【开源免费】DB-GPT是一个AI原生数据应用开发框架,它提供开发多模型管理(SMMF)、Text2SQL效果优化、RAG框架以及优化、Multi-Agents框架协作、AWEL(智能体工作流编排)等多种技术能力,让围绕数据库构建大模型应用更简单、更方便。
项目地址:https://github.com/eosphoros-ai/DB-GPT?tab=readme-ov-file
【开源免费】VectorVein是一个不需要任何编程基础,任何人都能用的AI工作流编辑工具。你可以将复杂的工作分解成多个步骤,并通过VectorVein固定并让AI依次完成。VectorVein是字节coze的平替产品。
项目地址:https://github.com/AndersonBY/vector-vein?tab=readme-ov-file
在线使用:https://vectorvein.ai/(付费)
【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。
项目地址:https://github.com/Significant-Gravitas/AutoGPT
【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。
项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md
【开源免费】XTuner 是一个高效、灵活、全能的轻量化大模型微调工具库。它帮助开发者提供一个简单易用的平台,可以对大语言模型(LLM)和多模态图文模型(VLM)进行预训练和轻量级微调。XTuner 支持多种微调算法,如 QLoRA、LoRA 和全量参数微调。
项目地址:https://github.com/InternLM/xtuner