MidReal 创始人陈锴杰,持续创业者,大学毕业后一直在创业,从18 ~19 年休学创业做家庭智能机器人,到2020 年开始第二次创业做 AI agent for Gaming,曾基于 GPT-2 等技术,在 ChatGPT 推出前实现“斯坦福小镇”等创新游戏模式,目前在做的是 AI 互动的小说故事创作,也就是今天的 MidReal。
官网地址:https://midreal.ai
回顾从休学创业到现在打造出MidReal ——并被网友戏称“爽文大师”
以下是的小宇宙「遇见Aler」栏目专访内容,彩虹之眼进行删减整理(全文9515字)
陈锴杰:在未来,或许不再需要专门的生产者来创作内容。一个人可能只是因为喜欢创作而进行生产,而不是因为必须承担这项责任。很多作家都有控制欲,他们可能不愿意让AI代为写作,因为他们希望作品完全出自自己之手。
然而,随着时代的发展,创作过程可能更多地转向一种表达偏好的方式,而不是传统意义上的创作。今天,人们通过弹幕和评论来表达自己对某个作品的看法,而在未来,可能仅通过这些互动,你就能生成一个全新的作品。
在预训练过程中,产生智能的方式是通过压缩,就像Elia常说的那样:“everything is about compression。”在预训练阶段,模型会阅读大量的文本,并逐步抽象出其中的规则,从而形成智能。这与后期训练的方式截然不同。后训练习得智能的方式往往依赖于搜索或其他方法,例如Queue Star算法或最近流行的Strawberry算法,实际上都是某种形式的搜索。
人类的创造力是个性化的,而AI的创造力则是泛化的。每个人的创作风格往往受限于自身的成长环境,这种环境的封闭性使得每个人的视角独特。我从小到大可能真正交谈过的人只有一万人左右,而与我进行过超过10分钟对话的人可能只有几千人。
与地球上数十亿人相比,我的成长环境是相当狭窄的。去过的地方有限,因此我的世界虽然很小,但正因为如此,我的创作才具有独特性。艺术家的生活环境通常也很极端,这种极端性赋予了他们创作的独特性。
然而,AI则不同。为了获得智能,AI并不能像人一样在一个独特的环境中成长。AI的学习范围是广泛的,它吸收的是所有人的经验和知识。这种广泛的学习导致了AI创造力的泛化,而缺乏个性化的独特视角。
您可以分享一下您的职业生涯吗?
陈锴杰:其实称不上职业生涯,因为我今年27岁。从大学毕业到现在,我一直在创业。我记得是在18~19年间,我在杜克大学读了两年,然后决定休学。当时觉得学校的没有什么挑战的事情,期间也做了项目、研究,成绩也不错。所以我就想,不如去做自己真正感兴趣的事情,于是开始了第一次创业,方向是家庭智能机器人(Home Robotics)。
虽然这个方向并不算特别成功,但我积累了一些很酷的经验,其中包括一个AI实验室,这个实验室直到今天仍在运行。在这个过程中,前后有大约一百多位研究员参与过,因此这是一个让我感慨的经历。在这次创业之后,2020年我回到学校完成了学业,随后开启了第二次创业,这次专注于AI agent for Gaming的开发。
我用GPT-2搭建了一个agent,把它放到游戏中与玩家互动。虽然当时很快发现GPT-2和GPT-3的效果并不理想,对游戏行业的影响也还处于非常早期的阶段,但没想到两年后,ChatGPT就出现了。于是,我开始了最近这一次的创业,创立了MidReal,专注于AI互动小说故事的创作,一直做到今天。
您刚刚提到您从GPT-2时代就开始接触GPT,是怎样的契机让您觉得这是一个未来的方向?
陈锴杰:当时我印象特别深刻,我有一个好朋友叫薛来,他非常酷。以前英特尔有一个全球科学奖,他获得了全球第一名,卡内基梅隆大学(CMU)招他去读书,但他拒绝了,最终直接被英特尔挖走,非常厉害。当时他跟我说:“So, dude, you have to look at this. There's something crazy.”
我当时去看了这个东西,最初并没有完全理解。当时GPT-2和GPT-3的很多应用场景效果都不理想,生成的文章也比较普通。但让我震撼的是,它们似乎开始展现出某种智能的迹象。虽然还不像现在的对话形式,当时更多是在续写文本的过程中,给人一种它似乎能够思考的感觉。
于是,我开始思考:如果我能很好地利用这种“会思考”的技术,是否可以让游戏中的NPC变得更加栩栩如生?从2020年开始,我就有了这个初步的想法,并在2021年和2022年逐步进行实践。大约在2021年,我们利用GPT-2和GPT-3搭建了“斯坦福小镇”这种模式,让AI agent通过互动生成故事情节。
是什么样的原因使得这个项目最终失败了呢?因为它智能程度不够?
陈锴杰:我们当时做了一些尝试,比如开发了一个小型的游戏模式。这个模式会每天爬取微博的热点,并将其转化为一个简单的文字冒险游戏。举个例子,如果当天的热点是“MidReal成功融资”,我们就会把这个热点信息爬取下来,让用户在游戏中与角色互动,有点像一个乙女游戏,但这个游戏的目的是揭开热点背后的真相。
可能揭示的真相是融资金额或项目进展,这样的玩法虽然不算特别有趣,但如果换成一些涉及明星的话题,你可以想象这个游戏会有很多反转。当时我们觉得这个模式挺有趣的,所以做了出来,并让AI来驱动。然而,实际体验中,我们发现要让这个游戏真正有趣,还是需要人为地编写和调整分支剧情。因为当时的AI对互联网和娱乐并不理解,也没有能力从中提取出有效的信息,所以整体效果并不理想。要么显得过于简单直白,要么就让人觉得无趣。
今天,其实A16Z投资了一家专门做这种业务的公司,他们正在将Twitter上的热点转化为游戏,这家公司最近刚刚成立。对此我也感触颇深。当时我们认为,如果这个项目仍然需要依赖运营,那么GPT的作用就有限了,所以我们决定尝试其他方向。
后来,我们开发了一个结合了游戏和社交属性的产品,或者说是一个带有工具属性的应用。用户每天把手机带在身边,它会总结你生活中的所有亮点,并将这些亮点串联起来。
这个项目有点像今天看到的Rewind。我们当时在用户调研中发现,美国高中生特别喜欢这个功能。高中生的生活丰富多彩,社团活动众多,他们喜欢记录这些内容并自动分享给朋友。
我们设计了一个小功能,让AI自动分享这些亮点,这样用户不需要发布朋友圈,而是直接收到与好友互动的日常状态。这种模式有点像苹果的“朋友定位”功能,可以实时看到朋友的位置。当时大家觉得这个功能很有突破性,也很震撼,高中生们特别喜欢,但监管机构却不太支持。
监管部门认为这种将用户隐私交由AI处理的方式是不被允许的,因此这个项目在美国被监管部门叫停了。这次经历给了我很多教训,做事情时需要考虑的不仅仅是用户,还包括各类利益相关者,如监管机构、技术供应商等。因此,这也促使我走向了今天的MidReal。
您是什么时候开始决定说选择故事创作这个领域为创业的核心赛道,从而创建了 Mid real 这家公司?
陈锴杰:其实真正决定做MidReal是在去年的11月份,也就是2023年的10月或11月。这个过程中,我们与顺宇以及Katigue合作,顺宇是“Reasoning and Action”这个智能体框架的作者,而Critique是他的导师,也是GPT那篇论文的第二作者。当时我们一起研究如何使用后训练(Post Training)的方法来开发智能体,而不是通过提示(Prompt)来完成。
那时我们有一个深刻的感受,很多人都在使用GPT的提示框架,但我们发现像“Chain of Thoughts”(思维链)和“Tree of Thoughts”(思维树)这些方法都有一个很大的缺点,那就是不稳定,效果无法保证。因为当多个提示链接在一起时,只要中间某个环节稍有不稳,最终效果就会不理想。
于是我们就想,能不能通过后训练的方法,让智能体变得更稳定,能够很好地执行任务。这是我们在去年上半年思考的问题。回顾这一年,今天所有的代码生成智能体公司几乎都在做后训练,而不再依赖预训练。
这已经成为今年的趋势。我们是首次提出这种后训练智能体的方法,之后我们发现它不仅能让输出更稳定,还能让任务完成得更好,推理能力也可能提升5到10倍左右。至于应用场景,有很多可选的,比如ToB(企业对企业)的方向,我们可以做法律文书、调研报告等等。
当时Critique的导师去做了客服机器人,这也是一个很好的智能体应用场景。
但我们有一些偏好,在选择要做什么的时候有三个期待。
第一个期待是希望这个事情是ToC(企业对个人),因为我在第一次创业时做过ToB,觉得自己和团队在ToB领域表现并不强,更多是依靠琢磨产品体验来做事情,而不是依靠资源。我们希望做ToC的东西,能打入一个更大的市场,吸引更多人来用,真正产生影响力。
第二个期待是希望做一个即使在OpenAI推出GPT-5或GPT-6后,仍然具有技术价值的项目,不会被淘汰。这是我们选择娱乐内容行业的原因之一,因为在娱乐内容行业,用户永远在追求最顶尖的内容。而在法律文书等场景中,有一个天花板,当你达到这个标准后,不需要再优化,任务就结束了。因此,GPT-5或GPT-6能完成这些任务后,之前的训练就失去了价值。
但内容创作更像写代码,你永远可以写出更高效的代码,永远可以优化。用户今天看漫威电影,可能十年后就不会再看卓别林的电影。这告诉我们,如果基于底层模型做后训练,随着底层模型能力的提升,最终效果也会不断提升,而内容消费则始终追求最终效果,这给我们带来了持久的市场空间,不会被GPT的发展所取代,这是第二个点。
第三个期待是我们希望在模式和体验上带来一些重大的改变。我们认为,AI的革命其实在去年10月时还不那么清晰,但今天大家看得很清楚,这是生产力的革命。前一代的互联网是信息流通效率的革命,着重在连接,而再之前的工业革命则是生产的革命。今天,我们回到了生产,用机器来生产。
在这个生产过程中,我们设想如果有一个内容平台,它的生产者不再是今天的抖音博主、B站UP主这些人,而是AI作为生产者,这会是什么样的场景?就比如说今天的抖音,你很少会去分辨一个博主究竟是人还是AI,只要内容足够好,不断更新,并与你互动,最后可能已经没有区别了。
因此,我们那时候设想,AI是否有可能颠覆今天的内容平台?这几个因素加在一起,我们选择了ToC市场,并且是一个不会被OpenAI淘汰的市场,还有机会重新塑造今天的一些格局。这就是为什么我们选择了故事创作。
因为故事是电影、电视剧、游戏、小说的基础,几乎所有的内容媒介和娱乐内容都需要一个故事支撑。除了一些特别强调操作感的游戏外,绝大多数内容都需要一个故事线来支撑。所以我们认为,用AI来写故事,从Netflix到迪士尼都可能因此发生变化。这就是我们选择故事创作的原因。
刚刚聊到了您选择故事创作这个领域的原因,但是很多从做这个领域的创业者,他都会选择使用 open AI 的 ChatGPT 这样最先进的模型来作为他创意的基石,你们为什么没有这么做?
陈锴杰:我们的技术方案其实是基于现有的预训练模型进行后训练,以提升模型的效果。早期OpenAI开放了微调(fine-tuning)的接口时,我们确实对OpenAI的模型进行了微调。然而,当LLAMA 3的性能达到了接近GPT-4的水平,甚至在年初达到了3.5的水平时,我们发现使用开源模型进行微调是一个更优的选择,因为这样可以进行更深入的优化。
OpenAI的微调接口限制了可调参数的范围,而且训练方式已经被固定,但在开源模型上,我们可以进行全参数量的微调,还可以添加如Lora、qLora、long Lora等技术,进行多种优化。此外,我们还可以进行DPO(直接偏好优化),直接对模型进行偏好学习,这也是非常关键的一点。如果需要,我们还可以进一步进行预训练(Pre-train)。
选择这种方式对我们来说是一个自然而然的决定,因为我个人的优势在于能够将技术和产品很好地结合起来。尽管有些公司选择完全依赖OpenAI的应用程序,这种做法也可能通过快速增长用户取得成功,但这并不是我想要做的事情。而且这种方式可能更依赖于运营,而我更希望专注于技术和产品的打磨。因此,我们选择了这样的路径。
您刚刚一直提到post-train,可以向听众朋友们解释一下 post-train 这个概念吗?
陈锴杰:没问题,关于后训练(post-train)的概念,我来解释一下。其实,当我们谈论大模型的训练时,整个过程可以分为两个阶段:预训练(Pre-train)和后训练(Post-train)。预训练就是指模型在最初阶段通过大量数据的训练来获得基础智能,而后训练则是在预训练完成后,对模型进行进一步的优化和细化。
我们更需要了解的是这两个阶段分别在做什么。预训练的核心在于压缩和总结。简单来说,模型通过分析大量的文本数据,将其中的规律和知识抽象出来,从而形成一种基础智能。正如Elia所说的,“一切都与压缩有关”。
后训练则不同,更多时候它是通过搜索(search)等方式来增强模型的智能。比如,像Q-star算法或最近很火的strawberry算法,都是某种形式的搜索,甚至可以理解为类似于“多颜色树搜索”(Multi-color Tree Search)。
你可以把后训练想象成Alphago下棋的过程。Alphago在下一步棋时,会预测并评估未来几步的走法,通过这种方式来找到最优解。对模型来说,后训练也是类似的过程,模型通过探索各种可能性来优化自己的行为。
举个例子,假设我们在训练一个用于写故事的智能体,这个智能体需要考虑情节的多个发展方向,比如哈利波特是要打败伏地魔,还是与金妮结婚,或者做其他事情。通过搜索所有可能的发展路径,选择最佳的情节,这就是后训练在模型中发挥作用的方式。
因此,后训练的主要目标是通过搜索提升模型的逻辑能力。这也是为什么OpenAI会提到,通过后训练,GPT-4的逻辑能力得到了显著提升。
关于后训练的方法,微调(Fine-tuning)是最基础的一种。在微调之上,还有直接偏好优化(Direct Preference Optimization),即让模型通过对比学习来提升。而在更高层次上,我们可以进行更深度的全量学习。
您刚刚说的这些操作可能都会对模型本身产生一定的影响,那如果说 LLAMA 推出了 LLAMA 3.1,那 3.1 的水平是比 3 可能强上非常多的,那像这种开源模型大的迭代是否会对您的这些 post training 的工作带来较大影响?
陈锴杰:其实后训练(post-training)的一个显著优势就是它的成本相对较低。相比预训练(Pre-train),预训练一次可能需要投入几千万美金,而后训练一次只需要几百到几千美金,这使得后训练成为一种非常经济的选择。因此,我们实际上每天都在进行训练,持续优化模型。因为训练确实需要持续进行,只有这样才能积累经验并不断改进。
当模型从3升级到3.1时,整体的训练流程和方法并没有本质的改变。我每天都会继续训练,等下周新版本推出时,我们就会切换到这个版本进行训练。所以,从3升级到3.1,在操作上并没有什么大的变化。
然而,确实有些情况下需要进行更大的调整。例如,LLAMA 3和LLAMA 3.1都是稠密模型,而它们与稀疏专家模型(MoE,Mixture of Experts)的训练方式是不同的。在后训练过程中,针对稠密模型和稀疏模型的训练策略可能会有所不同,因此我们可能需要进行一些模式上的切换。
当然,现在像 Deep Seek这样的公司也有一些非常优秀的MoE开源模型,我们也在进行相关的训练。所以,这种模型迭代带来的变化更多体现在具体的训练模式和策略上,而不是整个训练流程的改变。
这个过程中间你们积累下来最大的信息资产是什么?
陈锴杰:在这个过程中,我们积累了三项我认为非常重要的内容。
首先是我们的流水线(pipeline)。无论是新公司还是大公司,能够做到每天持续训练其实是非常困难的。这意味着你的数据处理能力必须足够快,部署要稳定,训练和服务(serving)要分开进行。
训练完成后,你需要立刻进行评估(evaluation),以检测训练的效果。我们用了几个月的时间才找到最佳方式,像OpenAI那样不断学习和改进。因此,这个流水线的积累非常有价值。今天,不论我们更换什么模型,都能快速适应。
第二项积累的是数据。在训练过程中,数据是至关重要的,可能会成为行业逐渐成熟后的关键资源。虽然很多数据都是公开的,但你会发现,像LLAMA 3.1这样的模型,其数据量可能是普通数据的十倍。
你可能会觉得难以置信,因为阿里和国内其他大厂的人才都非常优秀,但为什么会有5倍甚至10倍的数据差异呢?这个差异实际上非常重要。如果最终剩下的是10TB的数据,那么无论你是从100TB的数据中筛选出的10TB,还是仅从15TB的数据中筛选出的10TB,带来的效果差异都非常显著。
此外,这些数据中有多少是合成数据,多少是人工数据,这些都是关键因素。论文也逐渐证明,合成数据的影响不一定都是正面的。所以,数据的积累尤其重要,尤其是在垂直领域,如小说情节的发展方向、人物塑造方法、情节转折的写法、标题等,都是非常有价值的积累。
第三项积累是我们的训练方法和算法。比如,在故事写作中,我们使用的其实不仅仅是一个Agent,而是由四个Agent共同运作,每个Agent都有不同的任务。这四个Agent分别负责什么?它们各自的算法是什么?如何确保记忆的一致性,角色的连续性?如何将故事顺利转化为图片和视频?年底我们还计划推出一个AI生成短剧的功能。这些训练方法、算法布局和架构的积累,对我们来说都非常重要。
我们可不可以请您详细的介绍一下您产品的实际功能。
陈锴杰:我们的平台其实非常直观,它是一个AI互动故事内容平台。如果你是一个富有创意、喜欢编织故事的人,你会发现这个平台非常容易上手。当你开始使用时,它会引导你提出自己的想法,比如:“你脑海中现在有什么故事吗?有什么创意吗?”当然,它也会给你一些有趣的提示。你可以输入任何想法,比如“我想和杨幂谈恋爱”,或者一个更独特的创意,例如“我穿越到了过去,成为了一个嫌疑人,我该如何行动?”这些想法都是可以接受的。
接下来,我们的story agent会分析并扩展你的想法,以大约500到600字的长度为一段,你可以在每个段落结束时选择故事的发展方向。如果在任何时候你对剧情不满意,你都可以重写那部分剧情,重新塑造人物的发展。我们很快会推出更多功能,让创作者可以更自由地定义他们的创作,比如更深入地定义主角,更细致地打磨每一句话。
包括我们计划在年底推出的视频模态,你可以将你的小说故事转换成一个有趣的视频,在抖音等平台上分享,这将是一个非常酷的体验。目前我们已经有了图片功能,未来我们将进一步升级,将整个创作过程变得更加高级和丰富。
我也看到一些其他的公司有做像这样的故事的产品,但是我看到您的产品有个非常有趣的功能,就是你可以和故事里的任何一个角色聊天。想问一下开发这个功能的初衷是什么?
陈锴杰:其实我们在很早的时候就注意到了 Character AI。当时我有一个比较坚定的想法——当然,今天来说可能显得有些滞后了,因为Character AI的发展结果已经显现。但我记得在2月份的时候,我就提出了一个观点:Character AI 这种模式是难以持久的,它的用户量存在明显的天花板。
因为这种模式基本上是用户输入一句话,模型再输出一句话,如果将它视为一种内容消费的话,它的性价比其实很低。当然,如果定位为陪伴体验,它可能会有更大的成功空间。
如果仅仅是内容消费,那么Character AI的最好的归宿就是被谷歌收购,团队中的一部分人继续运营,另一部分人进入谷歌内部,这对他们来说已经是一个相当不错的结局。
在我们考虑聊天功能时,我们思考的是,如果我们也引入类似的聊天功能,它会带来怎样不同的体验?
我们发现在两个方面这个功能会比较有意思。首先,如果我写了一个故事,故事里本来就有对话,那么用户自然会尝试修改这些对话。如果用户可以直接和这些角色聊天,是不是会让整个体验更加直接和沉浸?这是一个简单的初衷。但当我们上线了这个功能后,我们发现用户的使用行为和我们预想的有所不同。
虽然有些用户确实将角色当作聊天对象,但更多时候,用户是希望通过与角色的互动来使故事更加完善。他们会告诉角色应该如何在故事中表现,把这个功能当作是改善写作的一个工具,而不仅仅是一个体验的入口。
这一点也反映了我们产品的定位。我并不希望这个功能仅仅是满足用户的幻想——满足个人的喜好,让自己开心,而是希望它能够有更广泛的传播效应。
我希望用户能够像发布抖音视频一样,创作出属于自己的小作品,并将这些作品分享出去,让其他人也能看到。在我们的平台上,用户已经可以看到其他人的故事。用户的这种使用方式证明了我们的产品定位,他们将作品视为自己创作的成果,并通过互动来完善这些作品。
为了创作更好的作品,他们甚至会指导角色的行为,比如告诉男主角不应该给女主角花钱,并建议接下来的剧情发展。这种互动让整个创作过程变得更加有趣。
所以,未来我们希望这个功能能够进一步发展,成为一种让故事更具深度的工具,同时在用户阅读和消费时,提供更多与角色互动、沉浸其中的空间。
您的用户主要有哪些类型?哪些是国内的?哪些是国外的?
陈锴杰:我们国内的用户比较少,大部分用户都在美国。在这些用户中,我们发现很多是有较多闲暇时间的人。我访问了很多美国的线下写作俱乐部,发现很多人周末聚在一起写小说、短故事、诗集,或者日记。大家写完后,再一起吃饭、聊天、打游戏。这种活动非常有意思,他们正是我们的核心用户。
这些人通常有全职工作,比如程序员或设计师,但在业余时间喜欢创作内容。美国大约有7%的人参与创意写作,所以这是一个相对较大的群体。我们还发现,那些刚毕业或仍在大学的年轻人,他们有较多时间和创意,也容易成为我们的核心用户。
与您的竞品相比,您的产品除了能够写出更好的故事之外,还有什么特别的优势?
陈锴杰:在交互形式上,很难说我们比其他产品更好,因为交互设计需要大量的人力打磨。我们团队只有8个人,其中四五个人在做模型,所以在应用开发上,我们没有太多资源来打造非常复杂的交互体验。我们的产品交互相对简单,但我们已经成功打造了一个内容平台。
很多写作类产品更多是工具属性,而我们的平台则更注重内容消费。比如,Novel AI 等产品主要用于写作,但我们的平台上用户已经开始消费内容。尽管今天的 AI 技术还不够成熟,我们写的故事可能还处于网络作家的中下水平,但这些内容已经有了消费的迹象。随着技术的进步,我们可能会成为一个 AI 驱动的内容平台,就像 AI 版的番茄小说或 Netflix。我认为这是一个非常清晰的发展趋势。
您最近针对 MID Real 最常思考的问题是什么?
陈锴杰:最近主要在思考两个问题。
第一,如何做好视频内容的制作,包括技术上的实现和产品模式上的调整。
第二,如何更好地服务于用户增长。我们的基础功能已经基本完善,现在要考虑什么样的功能能够最好地促进用户增长,比如免费赠送服务天数、任务系统、奖励机制等。这些都是我最近思考比较多的问题。
您如何看待人类创造力与 AI 创造力的关系?
陈锴杰:这是个很好的问题。人类的创造力是个性化的,而 AI 的创造力是泛化的。每个人的成长环境都是独特的,这种独特性使得他们的创作非常有特点。相比之下,AI 学习的是所有人类的知识,这使得它的创造力更趋向于平均化。
尽管我们可以通过一些训练方式让 AI 模拟特定个性,但它的创作仍然缺乏独特的视角和深度。我认为,这正是人类创造力与 AI 创造力之间最大的区别,也是我希望未来 AI 能够克服的地方。
如果人工智能发展到与人类作家同等的水平,人类创作者和 AI 之间会是什么关系?
陈锴杰:老实说,这个问题我也不确定。可能在未来的三五年内,我们依然需要人类创作者与 AI 一起合作完成创作。不过,随着 AI 创作水平的提升,更多的创作可能是为了满足人类的表达欲,而不是为了实际的消费需求。人类天生喜欢讲故事,这是一种根深蒂固的表达欲望。即使 AI 生成的内容已经足够优秀,人类可能还是会为了表达自己而继续创作。
您如何看待未来消费与创作之间的关系?
陈锴杰:未来,消费和创作可能会逐渐融合。过去,我们通过发布弹幕和评论来表达对某个作品的看法,而未来,我们可能直接通过这些表达来生成新的作品。比如,当你在电视剧里说女主角不该跳崖,系统就会生成一个她没跳崖的剧情版本。这样一来,用户的偏好表达直接影响作品的生成。创作者与消费者的界限将变得模糊,每个人都可以参与创作,并为作品注入自己的独特视角和想法。
在 AI 时代,您会给想做产品的伙伴提哪些建议?
陈锴杰:这其实很难给建议,我还不觉得自己有多大的成就,但有三件事对我个人帮助很大。
第一是找到最好的伙伴,我今天的合作伙伴是我第一次创业时认识的朋友,正因为有了这些伙伴,我们才能一起把事情做好。
第二是进行大量的战略思考,在早期阶段,很多事情并不明确,但通过不断的推演和讨论,我们最终做出了正确的选择。
第三是保持对这个时代机会的珍惜心态。我很幸运能在这个 AI 浪潮中抓住机会,这让我充满了动力,愿意全力以赴,不放弃任何可能成功的机会。
文章来源“彩虹之眼”,作者“彩虹少女”
【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。
项目地址:https://github.com/Significant-Gravitas/AutoGPT
【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。
项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md
【开源免费】XTuner 是一个高效、灵活、全能的轻量化大模型微调工具库。它帮助开发者提供一个简单易用的平台,可以对大语言模型(LLM)和多模态图文模型(VLM)进行预训练和轻量级微调。XTuner 支持多种微调算法,如 QLoRA、LoRA 和全量参数微调。
项目地址:https://github.com/InternLM/xtuner
【开源免费】LangGPT 是一个通过结构化和模板化的方法,编写高质量的AI提示词的开源项目。它可以让任何非专业的用户轻松创建高水平的提示词,进而高质量的帮助用户通过AI解决问题。
项目地址:https://github.com/langgptai/LangGPT/blob/main/README_zh.md
在线使用:https://kimi.moonshot.cn/kimiplus/conpg00t7lagbbsfqkq0