ChatGPT 人工智能 GPT4 伦理 生成式 医疗 监管 安全 机器学习 深度学习 神经网络 计算机视觉 强化学习 模型 算法 应用 开发 研究 工具 平台 框架 数据集 训练 部署 安全 合规 培训 投资 LLM,llm AI,ai,Ai 大模型 大语言模型 制图 生图 绘图 文生图 文生视频 生成式AI AGI 世界模型 sora chatGPT,chatgpt,ChatGpt claude openai Llama deepseek midjourney 红熊猫模型 Red panda,panda Stable Diffusion,StableDiffusion,stable DALL- E 3 DALL E DALL Flux,flux 扩散模型 混元大模型 文心一言 通义千问 可灵 Pika PixelDance 豆包 月之暗面 零一万物 阶跃星辰 搜索增强 MiniMax Talkie Agent prompt fastai LangChain TTS 微调 提示词 知识库 智能体
# 热门搜索 #
搜索
27岁连续创业者:用AI打造下一代故事创作平台,颠覆传统内容创作的未来!
9312点击    2024-08-21 15:14


MidReal 创始人陈锴杰,持续创业者,大学毕业后一直在创业,从18 ~19 年休学创业做家庭智能机器人,到2020 年开始第二次创业做 AI agent for Gaming,曾基于 GPT-2 等技术,在 ChatGPT 推出前实现“斯坦福小镇”等创新游戏模式,目前在做的是 AI 互动的小说故事创作,也就是今天的 MidReal。


官网地址:https://midreal.ai


回顾从休学创业到现在打造出MidReal ——并被网友戏称“爽文大师”


以下是的小宇宙「遇见Aler」栏目专访内容,彩虹之眼进行删减整理(全文9515字)


01/


陈锴杰:在未来,或许不再需要专门的生产者来创作内容。一个人可能只是因为喜欢创作而进行生产,而不是因为必须承担这项责任。很多作家都有控制欲,他们可能不愿意让AI代为写作,因为他们希望作品完全出自自己之手。


然而,随着时代的发展,创作过程可能更多地转向一种表达偏好的方式,而不是传统意义上的创作。今天,人们通过弹幕和评论来表达自己对某个作品的看法,而在未来,可能仅通过这些互动,你就能生成一个全新的作品。


在预训练过程中,产生智能的方式是通过压缩,就像Elia常说的那样:“everything is about compression。”在预训练阶段,模型会阅读大量的文本,并逐步抽象出其中的规则,从而形成智能。这与后期训练的方式截然不同。后训练习得智能的方式往往依赖于搜索或其他方法,例如Queue Star算法或最近流行的Strawberry算法,实际上都是某种形式的搜索。


人类的创造力是个性化的,而AI的创造力则是泛化的。每个人的创作风格往往受限于自身的成长环境,这种环境的封闭性使得每个人的视角独特。我从小到大可能真正交谈过的人只有一万人左右,而与我进行过超过10分钟对话的人可能只有几千人。


与地球上数十亿人相比,我的成长环境是相当狭窄的。去过的地方有限,因此我的世界虽然很小,但正因为如此,我的创作才具有独特性。艺术家的生活环境通常也很极端,这种极端性赋予了他们创作的独特性。


然而,AI则不同。为了获得智能,AI并不能像人一样在一个独特的环境中成长。AI的学习范围是广泛的,它吸收的是所有人的经验和知识。这种广泛的学习导致了AI创造力的泛化,而缺乏个性化的独特视角。


02/


您可以分享一下您的职业生涯吗?


陈锴杰:其实称不上职业生涯,因为我今年27岁。从大学毕业到现在,我一直在创业。我记得是在18~19年间,我在杜克大学读了两年,然后决定休学。当时觉得学校的没有什么挑战的事情,期间也做了项目、研究,成绩也不错。所以我就想,不如去做自己真正感兴趣的事情,于是开始了第一次创业,方向是家庭智能机器人(Home Robotics)。


虽然这个方向并不算特别成功,但我积累了一些很酷的经验,其中包括一个AI实验室,这个实验室直到今天仍在运行。在这个过程中,前后有大约一百多位研究员参与过,因此这是一个让我感慨的经历。在这次创业之后,2020年我回到学校完成了学业,随后开启了第二次创业,这次专注于AI agent for Gaming的开发。


我用GPT-2搭建了一个agent,把它放到游戏中与玩家互动。虽然当时很快发现GPT-2和GPT-3的效果并不理想,对游戏行业的影响也还处于非常早期的阶段,但没想到两年后,ChatGPT就出现了。于是,我开始了最近这一次的创业,创立了MidReal,专注于AI互动小说故事的创作,一直做到今天。


您刚刚提到您从GPT-2时代就开始接触GPT,是怎样的契机让您觉得这是一个未来的方向?


陈锴杰:当时我印象特别深刻,我有一个好朋友叫薛来,他非常酷。以前英特尔有一个全球科学奖,他获得了全球第一名,卡内基梅隆大学(CMU)招他去读书,但他拒绝了,最终直接被英特尔挖走,非常厉害。当时他跟我说:“So, dude, you have to look at this. There's something crazy.”


我当时去看了这个东西,最初并没有完全理解。当时GPT-2和GPT-3的很多应用场景效果都不理想,生成的文章也比较普通。但让我震撼的是,它们似乎开始展现出某种智能的迹象。虽然还不像现在的对话形式,当时更多是在续写文本的过程中,给人一种它似乎能够思考的感觉。


于是,我开始思考:如果我能很好地利用这种“会思考”的技术,是否可以让游戏中的NPC变得更加栩栩如生?从2020年开始,我就有了这个初步的想法,并在2021年和2022年逐步进行实践。大约在2021年,我们利用GPT-2和GPT-3搭建了“斯坦福小镇”这种模式,让AI agent通过互动生成故事情节。


是什么样的原因使得这个项目最终失败了呢?因为它智能程度不够?


陈锴杰:我们当时做了一些尝试,比如开发了一个小型的游戏模式。这个模式会每天爬取微博的热点,并将其转化为一个简单的文字冒险游戏。举个例子,如果当天的热点是“MidReal成功融资”,我们就会把这个热点信息爬取下来,让用户在游戏中与角色互动,有点像一个乙女游戏,但这个游戏的目的是揭开热点背后的真相。


可能揭示的真相是融资金额或项目进展,这样的玩法虽然不算特别有趣,但如果换成一些涉及明星的话题,你可以想象这个游戏会有很多反转。当时我们觉得这个模式挺有趣的,所以做了出来,并让AI来驱动。然而,实际体验中,我们发现要让这个游戏真正有趣,还是需要人为地编写和调整分支剧情。因为当时的AI对互联网和娱乐并不理解,也没有能力从中提取出有效的信息,所以整体效果并不理想。要么显得过于简单直白,要么就让人觉得无趣。


今天,其实A16Z投资了一家专门做这种业务的公司,他们正在将Twitter上的热点转化为游戏,这家公司最近刚刚成立。对此我也感触颇深。当时我们认为,如果这个项目仍然需要依赖运营,那么GPT的作用就有限了,所以我们决定尝试其他方向。


后来,我们开发了一个结合了游戏和社交属性的产品,或者说是一个带有工具属性的应用。用户每天把手机带在身边,它会总结你生活中的所有亮点,并将这些亮点串联起来。


这个项目有点像今天看到的Rewind。我们当时在用户调研中发现,美国高中生特别喜欢这个功能。高中生的生活丰富多彩,社团活动众多,他们喜欢记录这些内容并自动分享给朋友。


我们设计了一个小功能,让AI自动分享这些亮点,这样用户不需要发布朋友圈,而是直接收到与好友互动的日常状态。这种模式有点像苹果的“朋友定位”功能,可以实时看到朋友的位置。当时大家觉得这个功能很有突破性,也很震撼,高中生们特别喜欢,但监管机构却不太支持。


监管部门认为这种将用户隐私交由AI处理的方式是不被允许的,因此这个项目在美国被监管部门叫停了。这次经历给了我很多教训,做事情时需要考虑的不仅仅是用户,还包括各类利益相关者,如监管机构、技术供应商等。因此,这也促使我走向了今天的MidReal。


您是什么时候开始决定说选择故事创作这个领域为创业的核心赛道,从而创建了 Mid real 这家公司?


陈锴杰:其实真正决定做MidReal是在去年的11月份,也就是2023年的10月或11月。这个过程中,我们与顺宇以及Katigue合作,顺宇是“Reasoning and Action”这个智能体框架的作者,而Critique是他的导师,也是GPT那篇论文的第二作者。当时我们一起研究如何使用后训练(Post Training)的方法来开发智能体,而不是通过提示(Prompt)来完成。


那时我们有一个深刻的感受,很多人都在使用GPT的提示框架,但我们发现像“Chain of Thoughts”(思维链)和“Tree of Thoughts”(思维树)这些方法都有一个很大的缺点,那就是不稳定,效果无法保证。因为当多个提示链接在一起时,只要中间某个环节稍有不稳,最终效果就会不理想。


于是我们就想,能不能通过后训练的方法,让智能体变得更稳定,能够很好地执行任务。这是我们在去年上半年思考的问题。回顾这一年,今天所有的代码生成智能体公司几乎都在做后训练,而不再依赖预训练。


这已经成为今年的趋势。我们是首次提出这种后训练智能体的方法,之后我们发现它不仅能让输出更稳定,还能让任务完成得更好,推理能力也可能提升5到10倍左右。至于应用场景,有很多可选的,比如ToB(企业对企业)的方向,我们可以做法律文书、调研报告等等。

当时Critique的导师去做了客服机器人,这也是一个很好的智能体应用场景。


但我们有一些偏好,在选择要做什么的时候有三个期待。


第一个期待是希望这个事情是ToC(企业对个人),因为我在第一次创业时做过ToB,觉得自己和团队在ToB领域表现并不强,更多是依靠琢磨产品体验来做事情,而不是依靠资源。我们希望做ToC的东西,能打入一个更大的市场,吸引更多人来用,真正产生影响力。


第二个期待是希望做一个即使在OpenAI推出GPT-5或GPT-6后,仍然具有技术价值的项目,不会被淘汰。这是我们选择娱乐内容行业的原因之一,因为在娱乐内容行业,用户永远在追求最顶尖的内容。而在法律文书等场景中,有一个天花板,当你达到这个标准后,不需要再优化,任务就结束了。因此,GPT-5或GPT-6能完成这些任务后,之前的训练就失去了价值。


但内容创作更像写代码,你永远可以写出更高效的代码,永远可以优化。用户今天看漫威电影,可能十年后就不会再看卓别林的电影。这告诉我们,如果基于底层模型做后训练,随着底层模型能力的提升,最终效果也会不断提升,而内容消费则始终追求最终效果,这给我们带来了持久的市场空间,不会被GPT的发展所取代,这是第二个点。


第三个期待是我们希望在模式和体验上带来一些重大的改变。我们认为,AI的革命其实在去年10月时还不那么清晰,但今天大家看得很清楚,这是生产力的革命。前一代的互联网是信息流通效率的革命,着重在连接,而再之前的工业革命则是生产的革命。今天,我们回到了生产,用机器来生产。


在这个生产过程中,我们设想如果有一个内容平台,它的生产者不再是今天的抖音博主、B站UP主这些人,而是AI作为生产者,这会是什么样的场景?就比如说今天的抖音,你很少会去分辨一个博主究竟是人还是AI,只要内容足够好,不断更新,并与你互动,最后可能已经没有区别了。


因此,我们那时候设想,AI是否有可能颠覆今天的内容平台?这几个因素加在一起,我们选择了ToC市场,并且是一个不会被OpenAI淘汰的市场,还有机会重新塑造今天的一些格局。这就是为什么我们选择了故事创作。


因为故事是电影、电视剧、游戏、小说的基础,几乎所有的内容媒介和娱乐内容都需要一个故事支撑。除了一些特别强调操作感的游戏外,绝大多数内容都需要一个故事线来支撑。所以我们认为,用AI来写故事,从Netflix到迪士尼都可能因此发生变化。这就是我们选择故事创作的原因。


刚刚聊到了您选择故事创作这个领域的原因,但是很多从做这个领域的创业者,他都会选择使用 open AI 的 ChatGPT 这样最先进的模型来作为他创意的基石,你们为什么没有这么做?


陈锴杰:我们的技术方案其实是基于现有的预训练模型进行后训练,以提升模型的效果。早期OpenAI开放了微调(fine-tuning)的接口时,我们确实对OpenAI的模型进行了微调。然而,当LLAMA 3的性能达到了接近GPT-4的水平,甚至在年初达到了3.5的水平时,我们发现使用开源模型进行微调是一个更优的选择,因为这样可以进行更深入的优化。


OpenAI的微调接口限制了可调参数的范围,而且训练方式已经被固定,但在开源模型上,我们可以进行全参数量的微调,还可以添加如Lora、qLora、long Lora等技术,进行多种优化。此外,我们还可以进行DPO(直接偏好优化),直接对模型进行偏好学习,这也是非常关键的一点。如果需要,我们还可以进一步进行预训练(Pre-train)。


选择这种方式对我们来说是一个自然而然的决定,因为我个人的优势在于能够将技术和产品很好地结合起来。尽管有些公司选择完全依赖OpenAI的应用程序,这种做法也可能通过快速增长用户取得成功,但这并不是我想要做的事情。而且这种方式可能更依赖于运营,而我更希望专注于技术和产品的打磨。因此,我们选择了这样的路径。


您刚刚一直提到post-train,可以向听众朋友们解释一下 post-train 这个概念吗?


陈锴杰:没问题,关于后训练(post-train)的概念,我来解释一下。其实,当我们谈论大模型的训练时,整个过程可以分为两个阶段:预训练(Pre-train)和后训练(Post-train)。预训练就是指模型在最初阶段通过大量数据的训练来获得基础智能,而后训练则是在预训练完成后,对模型进行进一步的优化和细化。


我们更需要了解的是这两个阶段分别在做什么。预训练的核心在于压缩和总结。简单来说,模型通过分析大量的文本数据,将其中的规律和知识抽象出来,从而形成一种基础智能。正如Elia所说的,“一切都与压缩有关”。


后训练则不同,更多时候它是通过搜索(search)等方式来增强模型的智能。比如,像Q-star算法或最近很火的strawberry算法,都是某种形式的搜索,甚至可以理解为类似于“多颜色树搜索”(Multi-color Tree Search)。


你可以把后训练想象成Alphago下棋的过程。Alphago在下一步棋时,会预测并评估未来几步的走法,通过这种方式来找到最优解。对模型来说,后训练也是类似的过程,模型通过探索各种可能性来优化自己的行为。


举个例子,假设我们在训练一个用于写故事的智能体,这个智能体需要考虑情节的多个发展方向,比如哈利波特是要打败伏地魔,还是与金妮结婚,或者做其他事情。通过搜索所有可能的发展路径,选择最佳的情节,这就是后训练在模型中发挥作用的方式。


因此,后训练的主要目标是通过搜索提升模型的逻辑能力。这也是为什么OpenAI会提到,通过后训练,GPT-4的逻辑能力得到了显著提升。


关于后训练的方法,微调(Fine-tuning)是最基础的一种。在微调之上,还有直接偏好优化(Direct Preference Optimization),即让模型通过对比学习来提升。而在更高层次上,我们可以进行更深度的全量学习。


您刚刚说的这些操作可能都会对模型本身产生一定的影响,那如果说 LLAMA 推出了 LLAMA 3.1,那 3.1 的水平是比 3 可能强上非常多的,那像这种开源模型大的迭代是否会对您的这些 post training 的工作带来较大影响?


陈锴杰:其实后训练(post-training)的一个显著优势就是它的成本相对较低。相比预训练(Pre-train),预训练一次可能需要投入几千万美金,而后训练一次只需要几百到几千美金,这使得后训练成为一种非常经济的选择。因此,我们实际上每天都在进行训练,持续优化模型。因为训练确实需要持续进行,只有这样才能积累经验并不断改进。


当模型从3升级到3.1时,整体的训练流程和方法并没有本质的改变。我每天都会继续训练,等下周新版本推出时,我们就会切换到这个版本进行训练。所以,从3升级到3.1,在操作上并没有什么大的变化。


然而,确实有些情况下需要进行更大的调整。例如,LLAMA 3和LLAMA 3.1都是稠密模型,而它们与稀疏专家模型(MoE,Mixture of Experts)的训练方式是不同的。在后训练过程中,针对稠密模型和稀疏模型的训练策略可能会有所不同,因此我们可能需要进行一些模式上的切换。


当然,现在像 Deep Seek这样的公司也有一些非常优秀的MoE开源模型,我们也在进行相关的训练。所以,这种模型迭代带来的变化更多体现在具体的训练模式和策略上,而不是整个训练流程的改变。


这个过程中间你们积累下来最大的信息资产是什么?


陈锴杰:在这个过程中,我们积累了三项我认为非常重要的内容。


首先是我们的流水线(pipeline)。无论是新公司还是大公司,能够做到每天持续训练其实是非常困难的。这意味着你的数据处理能力必须足够快,部署要稳定,训练和服务(serving)要分开进行。


训练完成后,你需要立刻进行评估(evaluation),以检测训练的效果。我们用了几个月的时间才找到最佳方式,像OpenAI那样不断学习和改进。因此,这个流水线的积累非常有价值。今天,不论我们更换什么模型,都能快速适应。


第二项积累的是数据。在训练过程中,数据是至关重要的,可能会成为行业逐渐成熟后的关键资源。虽然很多数据都是公开的,但你会发现,像LLAMA 3.1这样的模型,其数据量可能是普通数据的十倍。


你可能会觉得难以置信,因为阿里和国内其他大厂的人才都非常优秀,但为什么会有5倍甚至10倍的数据差异呢?这个差异实际上非常重要。如果最终剩下的是10TB的数据,那么无论你是从100TB的数据中筛选出的10TB,还是仅从15TB的数据中筛选出的10TB,带来的效果差异都非常显著。


此外,这些数据中有多少是合成数据,多少是人工数据,这些都是关键因素。论文也逐渐证明,合成数据的影响不一定都是正面的。所以,数据的积累尤其重要,尤其是在垂直领域,如小说情节的发展方向、人物塑造方法、情节转折的写法、标题等,都是非常有价值的积累。

第三项积累是我们的训练方法和算法。比如,在故事写作中,我们使用的其实不仅仅是一个Agent,而是由四个Agent共同运作,每个Agent都有不同的任务。这四个Agent分别负责什么?它们各自的算法是什么?如何确保记忆的一致性,角色的连续性?如何将故事顺利转化为图片和视频?年底我们还计划推出一个AI生成短剧的功能。这些训练方法、算法布局和架构的积累,对我们来说都非常重要。


我们可不可以请您详细的介绍一下您产品的实际功能。


陈锴杰:我们的平台其实非常直观,它是一个AI互动故事内容平台。如果你是一个富有创意、喜欢编织故事的人,你会发现这个平台非常容易上手。当你开始使用时,它会引导你提出自己的想法,比如:“你脑海中现在有什么故事吗?有什么创意吗?”当然,它也会给你一些有趣的提示。你可以输入任何想法,比如“我想和杨幂谈恋爱”,或者一个更独特的创意,例如“我穿越到了过去,成为了一个嫌疑人,我该如何行动?”这些想法都是可以接受的。


接下来,我们的story agent会分析并扩展你的想法,以大约500到600字的长度为一段,你可以在每个段落结束时选择故事的发展方向。如果在任何时候你对剧情不满意,你都可以重写那部分剧情,重新塑造人物的发展。我们很快会推出更多功能,让创作者可以更自由地定义他们的创作,比如更深入地定义主角,更细致地打磨每一句话。


包括我们计划在年底推出的视频模态,你可以将你的小说故事转换成一个有趣的视频,在抖音等平台上分享,这将是一个非常酷的体验。目前我们已经有了图片功能,未来我们将进一步升级,将整个创作过程变得更加高级和丰富。


我也看到一些其他的公司有做像这样的故事的产品,但是我看到您的产品有个非常有趣的功能,就是你可以和故事里的任何一个角色聊天。想问一下开发这个功能的初衷是什么?


陈锴杰:其实我们在很早的时候就注意到了 Character AI。当时我有一个比较坚定的想法——当然,今天来说可能显得有些滞后了,因为Character AI的发展结果已经显现。但我记得在2月份的时候,我就提出了一个观点:Character AI 这种模式是难以持久的,它的用户量存在明显的天花板。


因为这种模式基本上是用户输入一句话,模型再输出一句话,如果将它视为一种内容消费的话,它的性价比其实很低。当然,如果定位为陪伴体验,它可能会有更大的成功空间。


如果仅仅是内容消费,那么Character AI的最好的归宿就是被谷歌收购,团队中的一部分人继续运营,另一部分人进入谷歌内部,这对他们来说已经是一个相当不错的结局。


在我们考虑聊天功能时,我们思考的是,如果我们也引入类似的聊天功能,它会带来怎样不同的体验?


我们发现在两个方面这个功能会比较有意思。首先,如果我写了一个故事,故事里本来就有对话,那么用户自然会尝试修改这些对话。如果用户可以直接和这些角色聊天,是不是会让整个体验更加直接和沉浸?这是一个简单的初衷。但当我们上线了这个功能后,我们发现用户的使用行为和我们预想的有所不同。


虽然有些用户确实将角色当作聊天对象,但更多时候,用户是希望通过与角色的互动来使故事更加完善。他们会告诉角色应该如何在故事中表现,把这个功能当作是改善写作的一个工具,而不仅仅是一个体验的入口。


这一点也反映了我们产品的定位。我并不希望这个功能仅仅是满足用户的幻想——满足个人的喜好,让自己开心,而是希望它能够有更广泛的传播效应。


我希望用户能够像发布抖音视频一样,创作出属于自己的小作品,并将这些作品分享出去,让其他人也能看到。在我们的平台上,用户已经可以看到其他人的故事。用户的这种使用方式证明了我们的产品定位,他们将作品视为自己创作的成果,并通过互动来完善这些作品。


为了创作更好的作品,他们甚至会指导角色的行为,比如告诉男主角不应该给女主角花钱,并建议接下来的剧情发展。这种互动让整个创作过程变得更加有趣。


所以,未来我们希望这个功能能够进一步发展,成为一种让故事更具深度的工具,同时在用户阅读和消费时,提供更多与角色互动、沉浸其中的空间。


您的用户主要有哪些类型?哪些是国内的?哪些是国外的?


陈锴杰:我们国内的用户比较少,大部分用户都在美国。在这些用户中,我们发现很多是有较多闲暇时间的人。我访问了很多美国的线下写作俱乐部,发现很多人周末聚在一起写小说、短故事、诗集,或者日记。大家写完后,再一起吃饭、聊天、打游戏。这种活动非常有意思,他们正是我们的核心用户。


这些人通常有全职工作,比如程序员或设计师,但在业余时间喜欢创作内容。美国大约有7%的人参与创意写作,所以这是一个相对较大的群体。我们还发现,那些刚毕业或仍在大学的年轻人,他们有较多时间和创意,也容易成为我们的核心用户。


与您的竞品相比,您的产品除了能够写出更好的故事之外,还有什么特别的优势?


陈锴杰:在交互形式上,很难说我们比其他产品更好,因为交互设计需要大量的人力打磨。我们团队只有8个人,其中四五个人在做模型,所以在应用开发上,我们没有太多资源来打造非常复杂的交互体验。我们的产品交互相对简单,但我们已经成功打造了一个内容平台。


很多写作类产品更多是工具属性,而我们的平台则更注重内容消费。比如,Novel AI 等产品主要用于写作,但我们的平台上用户已经开始消费内容。尽管今天的 AI 技术还不够成熟,我们写的故事可能还处于网络作家的中下水平,但这些内容已经有了消费的迹象。随着技术的进步,我们可能会成为一个 AI 驱动的内容平台,就像 AI 版的番茄小说或 Netflix。我认为这是一个非常清晰的发展趋势。


您最近针对 MID Real 最常思考的问题是什么?


陈锴杰:最近主要在思考两个问题。


第一,如何做好视频内容的制作,包括技术上的实现和产品模式上的调整。


第二,如何更好地服务于用户增长。我们的基础功能已经基本完善,现在要考虑什么样的功能能够最好地促进用户增长,比如免费赠送服务天数、任务系统、奖励机制等。这些都是我最近思考比较多的问题。


您如何看待人类创造力与 AI 创造力的关系?


陈锴杰:这是个很好的问题。人类的创造力是个性化的,而 AI 的创造力是泛化的。每个人的成长环境都是独特的,这种独特性使得他们的创作非常有特点。相比之下,AI 学习的是所有人类的知识,这使得它的创造力更趋向于平均化。


尽管我们可以通过一些训练方式让 AI 模拟特定个性,但它的创作仍然缺乏独特的视角和深度。我认为,这正是人类创造力与 AI 创造力之间最大的区别,也是我希望未来 AI 能够克服的地方。


如果人工智能发展到与人类作家同等的水平,人类创作者和 AI 之间会是什么关系?


陈锴杰:老实说,这个问题我也不确定。可能在未来的三五年内,我们依然需要人类创作者与 AI 一起合作完成创作。不过,随着 AI 创作水平的提升,更多的创作可能是为了满足人类的表达欲,而不是为了实际的消费需求。人类天生喜欢讲故事,这是一种根深蒂固的表达欲望。即使 AI 生成的内容已经足够优秀,人类可能还是会为了表达自己而继续创作。


您如何看待未来消费与创作之间的关系?


陈锴杰:未来,消费和创作可能会逐渐融合。过去,我们通过发布弹幕和评论来表达对某个作品的看法,而未来,我们可能直接通过这些表达来生成新的作品。比如,当你在电视剧里说女主角不该跳崖,系统就会生成一个她没跳崖的剧情版本。这样一来,用户的偏好表达直接影响作品的生成。创作者与消费者的界限将变得模糊,每个人都可以参与创作,并为作品注入自己的独特视角和想法。


在 AI 时代,您会给想做产品的伙伴提哪些建议?


陈锴杰:这其实很难给建议,我还不觉得自己有多大的成就,但有三件事对我个人帮助很大。


第一是找到最好的伙伴,我今天的合作伙伴是我第一次创业时认识的朋友,正因为有了这些伙伴,我们才能一起把事情做好。


第二是进行大量的战略思考,在早期阶段,很多事情并不明确,但通过不断的推演和讨论,我们最终做出了正确的选择。


第三是保持对这个时代机会的珍惜心态。我很幸运能在这个 AI 浪潮中抓住机会,这让我充满了动力,愿意全力以赴,不放弃任何可能成功的机会。


文章来源“彩虹之眼”,作者“彩虹少女”



AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
智能体

【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。

项目地址:https://github.com/Significant-Gravitas/AutoGPT


【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。

项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md

2
微调

【开源免费】XTuner 是一个高效、灵活、全能的轻量化大模型微调工具库。它帮助开发者提供一个简单易用的平台,可以对大语言模型(LLM)和多模态图文模型(VLM)进行预训练和轻量级微调。XTuner 支持多种微调算法,如 QLoRA、LoRA 和全量参数微调。

项目地址:https://github.com/InternLM/xtuner

3
prompt

【开源免费】LangGPT 是一个通过结构化和模板化的方法,编写高质量的AI提示词的开源项目。它可以让任何非专业的用户轻松创建高水平的提示词,进而高质量的帮助用户通过AI解决问题。

项目地址:https://github.com/langgptai/LangGPT/blob/main/README_zh.md

在线使用:https://kimi.moonshot.cn/kimiplus/conpg00t7lagbbsfqkq0