
近日,全球顶级创业孵化器Y Combinator在最新一期视频播客中,对2025年AI行业做出年终总结。作为全球初创企业的风向标,YC每年孵化大量顶尖AI初创公司,其内部观察往往预示技术与商业的转向。在本次对谈中,四位合伙人针对2025年的模型竞争格局、AI基础设施泡沫,以及创业与人才趋势等核心议题,展开了深度讨论。
Anthropic的模型份额突破52%,正式超越长期霸主OpenAI。2024年到2025年初,Anthropic的份额大多维持在25%左右,在过去3到6个月中实现了“曲棍球棒”式的陡峭增长。这种转变的核心驱动力在于Anthropic优秀的编写代码能力,这让它成为许多开发人员的首选工具,并渗透到其他使用场景。
Gemini的市场份额在一年内从个位数暴增至23%,其推理能力在2.5 Pro发布前就已经表现优异。在信息获取的准确性上,Gemini优于Perplexity,虽然速度稍慢,但在处理需要高可靠性的实时资讯时更值得信任,这使其成为了许多人的常用模型。
ChatGPT了解用户的个性、思考方式和历史背景,这种深度定制的体验形成了极高的迁移成本。虽然Perplexity擅长快速网页研究,但在理解用户意图的深度上,ChatGPT的记忆功能正在成为一种面向消费端的竞争壁垒,使老用户很难彻底切换到其他没有个性化积淀的模型 。
现在的AI创业公司已不再押注于单一模型,而是通过构建编排层来实现技术的抽象化。这意味着创始人可以根据具体任务灵活调用最擅长的模型。
例如,先用Gemini 3进行上下文工程处理,再将结果输入OpenAI执行,并根据新模型的发布动态进行替换。这种做法的底气来自于初创公司深耕某一垂直领域,拥有的专有评估标准(Evvals)和垂直领域的特有数据集,使模型成为可替换的商品化组件。
尽管模型能力强大,但目前市场上仍缺乏能全自动处理复杂高价值交易的深度消费类应用。这导致用户和初创公司开始出现手动套利行为:同时打开多个模型标签页,给它们相同的任务并对比输出,甚至让不同模型互相审计。在全自动化应用成熟之前,用户必须通过大量提示工程和跨模型验证才能确保准确性。
计算资源的过剩反而预示着机会。YC回顾了九十年代末的电信泡沫:当时数百亿美元堆出的过剩带宽,最终孕育了YouTube等伟大的产品。在AI智能时代,英伟达、谷歌、AMD之间的激烈竞争意味着计算资源会变得越来越廉价且充沛。对初创公司而言,这不仅降低了成本,更提供了一个可以自由施展创意的温床。
经济学家卡洛塔·佩雷斯的理论指出,技术革命分为安装和部署两个阶段。2023年疯狂购买GPU和建造数据中心的行为属于重资产的安装阶段,而现在正处于向部署阶段的过渡期。这对初创公司是极大利好,因为他们不需要参与耗钱的基建竞争,而是在既有的AI基础设施上构建下一代应用,未来的Facebook或谷歌往往诞生在这个阶段。
发电能力是AI发展的重要限制因素。由于陆地上的土地和电力建设速度跟不上需求,原本看似荒谬的太空数据中心方案已成为谷歌和马斯克等巨头跟进的方向。YC内部公司Zephyr Fusion正在研究如何通过太空聚变反应堆实现吉瓦级的能源供应,在物理模型上,这可能是未来十年解决计算能源短缺的唯一合理途径。
相比2024年底的动荡和迷茫,2025年的AI经济已经进入了一个相对稳定的体系。模型层、应用层和基础设施层的分工变得非常明确,各方都有获利空间。如何基于大模型构建一家AI原生公司已经拥有一套成熟的操作手册,不再是摸着石头过河,这种确定性为行业的可持续增长奠定了基础。
尽管技术在飞速起飞,但根据扩展定律,技术增长是对数线性的,会逐渐遇到上限。更重要的是,人类天生具有抗拒改变的倾向,两者共同构成了缓冲垫,让社会、文化和政府有足够的时间来消化AI技术。
Vibe Coding在2025年正式从一种创始人的行为模式演变成了一个成熟的行业类别。这种开发方式让开发者关注高层逻辑和“感觉”,通过大模型快速生成代码并迭代原型。虽然目前它还无法交付100%稳定的生产代码,但它极大地提升了验证想法的速度,彻底改变了创业公司早期的工作流程。
构建模型的知识正在普及化,不再是极少数天才的专利。许多初创公司利用开源模型,结合垂直领域的专有数据集进行强化学习(RL)微调。数据证明,这些针对特定垂直行业的小模型(例如只有8B参数)在专业基准测试中完全可以击败OpenAI的通用大模型,“专有数据+后训练基础设施”才是初创公司的硬实力。
AI时代催生了一种新型的成功标准:不再炫耀筹了多少钱或雇了多少人,而是炫耀团队的精简与收入的高效。Gamma仅凭50名员工就实现了1亿美元的年经常性收入(ARR)。虽然“一个人的万亿美元公司”尚未出现,但小规模团队创造巨额收入的故事正在成为AI原生公司的新常态,高生产力已经取代了规模扩张。
十年前,顶尖的研究思维、强大的工程能力以及敏锐的商业头脑人才组合极其罕见,但到了2025年,这类人才已经大量涌现。相关的构建知识分散化,当稀缺技能变成通用技能时,行业爆发就随之而来。未来将有更多应用型AI公司崛起。
尽管AI极大地提高了个人效率,但领先的AI初创公司依然在像以前一样积极招聘。因为AI在降低生产成本的同时,也拉高了客户对产品功能的期望,公司必须招募更多的高端执行人才来满足不断增长的市场需求和更快的交付周期。现在的瓶颈不在于创意,而在于招募到出色利用AI技术进行高质量执行的人手,人才竞争依然激烈。

Garry:欢迎回到新一期的《The Light Cone》。今天我们要聊聊在2025年看到的那些最令人惊讶的现象。Diana,你发现了一个非常疯狂的例子,这几乎可以看作是AI领域“旗手”的更替:在这一期YC孵化器中,创业者对大语言模型(LLM)的偏好发生了巨大变化。
Diana:是的。我们刚刚结束了2026年冬季批次的创业公司甄选。在申请过程中,我们会询问所有创始人的技术栈以及他们首选的模型是什么。
结果令人震惊。在过去很长一段时间里,OpenAI在YC历届批次中都是毫无争议的赢家。我记得我们刚开始做这个播客系列时,OpenAI的市场占有率在90%以上,虽然这个比例一直在下降。但在这个批次中,排名第一的竟然变成了Anthropic,它的份额略微超过了OpenAI。谁能想到呢?
Garry:Anthropic在2024年到2025年初的大部分时间里,份额一直维持在25%左右。但在过去的3到6个月里,局势发生了逆转。
Diana:Anthropic的增长曲线像“曲棍球棒”一样陡峭上升,最终突破了52%。
Garry:你认为原因是什么?
Diana:我认为主要在于模型选择的逻辑。正如我们今年所见,很多基于“Vibe Coding”工具和编写代码代理(AI Agents)的项目取得了成功,这已经成为一个能创造巨大价值的领域。而事实证明,在这一领域表现最出色的模型正是来自Anthropic的模型。
这并非偶然。从我们之前与Tom Brown(Anthropic联合创始人)的对话中可以听出来,编写代码能力是他们的内部评估指标之一,他们有意识地将其作为北极星指标,这种偏好也直接体现在了模型的输出质量上。因此,对于许多正在构建产品的创业者来说,Anthropic成了他们的首选。
Jared:其实很多人在非编程场景下也会使用它,我觉得这其中存在一种渗透效应。当人们在个人编程中习惯了Claude的个性化之后,在处理其他任务时也会倾向于选择它。即便他们的应用程序根本不涉及任何代码开发,他们也更愿意选择自己熟悉的模型,比如Claude Opus或Sonnet。
Garry:那Gemini的表现如何?它在排名中处在什么位置?
Diana:Gemini的增长也相当快。去年它的份额可能只有个位数(约2%到3%),但今年冬季批次已经上升到了23%左右。我们团队内部也大量使用了Gemini 3.0,它的质量和效率确实令人印象深刻。
这些模型似乎都有各自的性格。OpenAI给人一种冷酷的“黑猫”气质;而Anthropic则像是一只随遇而安、轻松愉快且非常乐于助人的“金毛寻回犬”。这是我与它们交流时的直观感受。
Harj:没错,我今年已经把Gemini作为我的常用模型了。甚至在2.5 Pro发布之前,我就觉得它的推理能力表现更好。现在我越来越多地用Gemini代替Google搜索。我很信任Google的Grounding API,它能利用Google的搜索索引提供实时且准确的信息。
在信息获取的准确性上,我认为它比目前市面上所有的工具都要好,甚至优于Perplexity。虽然Perplexity的速度更快,但并不总是准确;Gemini虽然稍慢,但如果你问它今天发生的事情,它的回答往往非常可靠。
Garry:你们都换了工具,但我还没从ChatGPT换走。我觉得它的“记忆”功能非常有黏性,它了解我的个性,也知道我思考问题的方式。
我会用Perplexity去做一些快速的网络研究任务,因为我觉得ChatGPT在网页搜索方面还是有些滞后。我认为“记忆”正在成为面向消费端体验的一道护城河。我并不指望Gemini能拥有像ChatGPT那样的个性,感觉它们是完全不同的实体。
Harj:让我惊讶的是,市场上还没有出现更多的深度消费类应用。回想起来,我今年最大的变化就是提示工程(Prompt Engineering)和上下文工程的工作量急剧增加。比如我最近买了一栋房子,整个过程我都在和ChatGPT深度沟通。我把每一份房屋检查报告、所有的PDF文档都塞给它,让它帮我总结重点,从而在与经纪人的博弈中建立信息对等。
Garry:虽然你可以把PDF丢进模型让它总结,但这种高价值交易中,如果你不进行大量的提示和引导,很难完全信任模型的准确性。你还是需要付出努力去核实。
Harj:确实,我还没看到哪个应用能全自动地完成这些工作。
Garry:你们看到Karpathy发布的那个“LLM竞技场”了吗?我现在其实是在用一种更原始的方式在做这件事:我同时打开Claude、Gemini和ChatGPT的标签页,给它们相同的任务,然后对比输出。我通常会把其他模型的建议丢给Claude,让它们互相审计。
Diana:这种在消费端出现的、类似于“手动套利”的行为非常有意思,初创公司其实也在做同样的事情。我接触过不少创始人,他们以前可能是OpenAI的死忠粉,但现在都在尝试跨模型的策略。
我最近刚和一些AI公司的创始人聊过,这些公司大多已经发展到了B轮阶段,规模不小。他们现在都在做一件很有意思的事:通过构建一个“编排层”来实现技术的抽象化。这意味着当新模型发布时,他们可以灵活地进行替换,甚至根据特定任务的需求,调用最擅长的模型。比如我听一家初创公司说,他们会先用Gemini 3进行上下文工程处理,然后将结果输入到OpenAI的模型中去执行。随着新模型不断涌现,他们也在持续迭代各个类别中表现最强的AI代理。
这种做法之所以可行,是因为他们拥有专有的评估标准和数据集。作为垂直领域的AI Agent公司,他们在受到高度监管的行业深耕,掌握了最适合该场景的数据。我觉得这已经成了行业的新常态。虽然模型公司投入了巨额资金让底层智能变得更快、更强,大家都能从中受益,但应用层公司也会尽其所能地利用这些成果。这就像当年的英特尔和AMD时代,新架构不断推陈出新,而用户可以自由选择和更换。
Harj:的确如此。在高层讨论中,大家最焦虑的往往是价值最终会流向哪里。是流向模型层,还是应用层?这种风向似乎每隔一段时间就会发生变化。
有时候模型公司发布了非常惊艳的产品,比如Claude Code,大家会觉得模型公司要在应用层通吃了。但至少从过去几个月的体感来看,比如Gemini的爆发式增长,又让我们回到了那个模型互为“商品化”的世界。如果这种趋势持续下去,初创公司在应用层将迎来又一个黄金年。

Diana:我很想听听Jared的看法,毕竟推特上关于“AI泡沫”的负面讨论最近很多。
Jared:是的,这也是本科生经常问我的问题。他们看到英伟达和OpenAI之间动辄百亿、千亿美元的投入,会担心这一切是不是泡沫,或者说是不是某种虚假繁荣。
Garry:其实这种现象非常棒。我们可以回顾一下当年的电信泡沫。九十年代末,数百亿甚至数千亿美元堆在电信基础设施里,造成了严重的带宽过剩。但正因为有了这些廉价且充沛的带宽,YouTube这样的产品才得以诞生。如果没有当初的过剩,YouTube可能要晚很多年才会出现。我们正处于智能时代,计算资源就像会思考、会做工的岩石,只要给它们充能,它们就会变得越来越聪明。对现在的大学生来说,基础设施的“过剩”反而是机会。如果资源匮乏,竞争会变小,但价格会更高,底层利润也会更厚。
看看今年的新闻,虽然英伟达的股价有所波动,但我长期依然看好。现在的局面是,大家不再只押注英伟达,AMD、谷歌的TPU都在发力。竞争意味着计算资源会更多,而不是更少。这对大型AI实验室来说可能有压力,因为他们要互相竞争,但对于在应用层创业的大学生来说,这绝对是重大利好。
Harj:确实。关于泡沫的问题,如果你是像康卡斯特(Comcast)那样的大公司,或者你是英伟达,你确实需要担心人们是否在过度建设GPU容量。但大学生不是基建商,他们更像是当年的YouTube。即使英伟达明年股价下跌,也不代表现在不是AI创业的好时机。
Jared:这就像扎克伯格在一次播客中提到的,Meta等大公司不得不投入巨额资本开支在基础设施上,因为他们不能袖手旁观。如果需求波动,损失的是大公司的资本开支,而不是初创公司的。基础设施的完善只会为构建新创意提供温床。
Diana:经济学家卡洛塔·佩雷斯(Carlota Perez)在书中研究过多次技术革命,她将技术趋势分为两个阶段:安装阶段和部署阶段。安装阶段伴随着沉重的资本开支和疯狂的基建,看起来确实像泡沫。就像2023年的聊天模型热潮,每个人都异常兴奋并疯狂购买GPU、建造吉瓦级数据中心。
我们现在正处于从“安装”到“部署”的过渡期。这对初创公司创始人是极好的消息,因为他们不需要参与耗钱的数据中心建设,而是在部署阶段构建下一代普适的应用。在2000年之前的互联网时代,电信巨头的重资产投入导致了产能过剩,甚至出现了大量未使用的光纤暗线。但这没关系,互联网最终还是成为了巨大的经济推动力。这意味着,未来的Facebook或谷歌可能还没出现,因为它们往往诞生在技术革命的部署阶段。
Garry:说到基建,现在的情况甚至有些夸张。我们现在面临的限制不是技术,而是发电能力。有一家叫Starcloud的公司,最早提出在太空建立数据中心,当时被全网嘲笑。但十八个月后,谷歌和埃隆·马斯克竟然也开始跟进这个方向了。
这种转变的原因很简单:我们在陆地上的发电和建设能力已经跟不上了,我们根本没有足够的土地和电力来支撑未来的需求。在这种环境下,把数据中心放到太空去,反而成了一种合理的解压方式。
Jared:仔细一想,YC已经有几家公司在解决这些问题了。比如Boom和Helion在解决能源不足的问题,还有一家叫Zephyr Fusion的公司,他们是由国家实验室的资深工程师创办的。这些专家研究了物理模型后发现,如果把聚变反应堆放到太空中,其实是划算的。这可能是未来十年内实现吉瓦级太空能源的唯一途径。
Harj:另外我发现,今年创办模型公司的兴趣也在增加。虽然只有极少数公司能直接挑战OpenAI,但在YC内部,越来越多的人开始构建更小规模的模型。这些项目通常针对边缘计算设备,或者是特定语种的语音模型。这让我想起了YC早期,初创公司的构建知识开始分散化和普及化。当一种稀缺技能变成通用技能时,爆发就会发生。十年前,创办OpenAI需要极其罕见的人才组合:顶尖的研究思维、强大的工程能力以及敏锐的商业头脑。
Garry:你描述的简直就是Ilya、Greg和Sam的组合。
Harj:这种团队确实极其罕见。但十年后的今天,具备研究背景、工程背景和融资经验的人才已经大量涌现。这意味着我们将看到更多应用型AI公司的崛起,以及针对各种具体任务的垂直模型。
Diana:我也是这么认为的。强化学习(RL)的普及也在产生雪球效应。现在出现了大量的开源模型,人们可以在特定的环境和任务中对其进行微调。这意味着,你完全可以利用开源模型,通过强化学习训练出最优秀的医疗领域模型,其表现甚至能击败像OpenAI那样的通用大模型。
实际上我已经见过不少这样的例子。有一家YC初创公司利用他们收集的最佳医疗数据集进行微调,结果在医疗健康领域的基准测试中完全超过了OpenAI,而他们使用的仅仅是一个80亿参数的小模型。这就证明了,拥有垂直领域的数据和后训练(Post-training)基础设施,初创公司完全可以构建出极具竞争力的产品。
Garry:在过去的一年里,有什么事情真正让你们感到印象深刻,或者说特别突出的吗?
Diana:这很有趣。我们年初做了一期关于Vibe Coding的节目,当时获得了很高的播放量。我记得那时我们更多是将其视为在创始人群体中观察到的一种行为模式。但我很惊讶地看到,这竟然演变成了一个巨大的行业类别。现在有很多公司在这个领域脱颖而出,比如Replit和Emergence等等。
Harj:Varun Mohan现在已经去Google了。他发布了反重力相关的视频,那场面非常有电影感,Varun在键盘前操作,谢尔盖·布林就紧跟在他后面。我其实有点好奇他们是否真的使用了Nano Banana或类似的视频生成工具,因为那段视频看起来过于完美了。不过考虑到Google的预算,做出高制作价值的视频也很正常。总之,现在大家不仅仅在谈论太空数据中心,也在讨论Vibe Coding。
虽然我刚才的话带点反讽,但就目前所知,Vibe Coding确实还不够完全可靠。你不可能在整个编码周期中只靠“感觉”,截至2025年底,它还无法交付100%稳定的生产代码。
Jared:关于2025年让我感到惊讶的事,我认为是人工智能经济趋于稳定的程度。在2024年底录节目时,我们感觉还处在一个变革极其迅速、甚至有些动荡的时期,没人知道下一个巨大的冲击何时降临,也不知道初创公司和整体经济会走向何方。但现在,我们已经进入了一个相对稳定的AI经济体系:模型层、应用层和基础设施层的公司分工明确,看起来大家都有获利空间。如何基于模型构建一家AI原生公司,现在已经有了一套相对成熟的操作手册。
Harj:这其实是下游的连锁反应。虽然模型本身在今年逐步改进,但还没有出现那种彻底颠覆一切的重大技术突破。我们之前讨论过,现在找到创业切入点似乎回到了正常的难度水平。只要你能坚持几个月,很可能会有新的重大功能发布,从而催生出一系列新的创意和构建机会。
Garry:我同意。而且让我并不感到惊讶的是,那份所谓的《AI 2027》报告。那种悲观的文章曾预言社会将在2027年开始崩溃,但后来他们悄悄修改了预测时间,却保留了那个惊悚的标题。我一直对这种“技术快速起飞”的论调持怀疑态度。即使按照扩展法则(Scaling Laws),技术的增长也是对数线性的,这意味着它会逐渐遇到上限,速度比想象中慢。
这其实算是个好消息。人类本质上是不喜欢改变的。我们之前分析过麻省理工学院的一份报告,提到90%的企业AI项目都失败了。事实是,大部分企业连基础业务都还没搞明白,更不用说应用AI了。这种人类组织对改变的抵触,反而成了制约新技术过度渗透的缓冲垫。
虽然我支持推动技术快速进步,但在这种情况下,慢一点也许是好事。在对数线性扩展和人类抗拒改变的共同作用下,社会、文化和政府将有足够的时间来消化和回应这项强大的技术,而不至于陷入疯狂的失控状态。
Harj:还有一件事让我惊讶。去年这个时候,我们在讨论有些初创公司在只有创始人、没有雇人的情况下,年收入就达到了一百万美元并筹集了A轮融资。我原以为这种模式会持续扩大,比如到了一千万美元ARR(Annual Recurring Revenue)时依然不雇人。但实际情况是,这些公司后来还是回过头来开始组建真正的团队。虽然现在的公司规模可能更小,但玩法基本没变。瓶颈依然在于招聘人才所需的时间。
Garry:虽然AI提高了效率,但因为业务增长太快,对高端执行人才的需求反而更迫切了。像Harvey和Open Evidence这样的公司,早期拿到了风投的大额资金,把资本作为一种防御护城河。现在我们看到了第二波AI驱动的公司出现,比如Lora 和Giga,竞争依然非常激烈。有些公司在微调模型上烧掉了大量的资本,却没有转化为实际的竞争优势,获利的只有投资者,因为他们拥有你公司更多的股份。
Harj:关于团队规模,目前存在两种观点:一种认为AI会让一切变得更高效,因此需要的人更少;另一种则认为AI降低了生产成本,但也拉高了客户的期望,你必须招聘更多人来满足不断增长的市场需求。
今年看起来更倾向于第二种情况。那些领先的AI初创公司依然在像以前一样雇人。他们受限于能够出色执行的人手,而不是受限于创意。
Garry:我同意。由一个人经营万亿美元公司的时代还没到来,但最终会朝那个方向发展,我认为202 年也不会发生这种情况。不过,我们会看到更多由不到一百人组成的团队创造出数亿美元收入的故事。比如Gamma,他们只有50名员工,年经常性收入(ARR)却达到了一亿美元。
这是一种非常棒的“反炫耀”趋势。以前大家喜欢炫耀筹了多少钱、雇了多少人,现在大家开始炫耀收入有多高、而团队规模有多精简。好了,今天的时间就到这里,祝大家新年快乐,我们下次见。
文章来自于“划重点KeyPoints”,作者 “林易”。
【开源免费】OWL是一个完全开源免费的通用智能体项目。它可以远程开Ubuntu容器、自动挂载数据、做规划、执行任务,堪称「云端超级打工人」而且做到了开源界GAIA性能天花板,达到了57.7%,超越Huggingface 提出的Open Deep Research 55.15%的表现。
项目地址:GitHub:https://github.com/camel-ai/owl
【开源免费】Browser-use 是一个用户AI代理直接可以控制浏览器的工具。它能够让AI 自动执行浏览器中的各种任务,如比较价格、添加购物车、回复各种社交媒体等。
项目地址:https://github.com/browser-use/browser-use
【开源免费】字节工作流产品扣子两大核心业务:Coze Studio(扣子开发平台)和 Coze Loop(扣子罗盘)全面开源,而且采用的是 Apache 2.0 许可证,支持商用!
项目地址:https://github.com/coze-dev/coze-studio
【开源免费】n8n是一个可以自定义工作流的AI项目,它提供了200个工作节点来帮助用户实现工作流的编排。
项目地址:https://github.com/n8n-io/n8n
在线使用:https://n8n.io/(付费)
【开源免费】DB-GPT是一个AI原生数据应用开发框架,它提供开发多模型管理(SMMF)、Text2SQL效果优化、RAG框架以及优化、Multi-Agents框架协作、AWEL(智能体工作流编排)等多种技术能力,让围绕数据库构建大模型应用更简单、更方便。
项目地址:https://github.com/eosphoros-ai/DB-GPT?tab=readme-ov-file
【开源免费】VectorVein是一个不需要任何编程基础,任何人都能用的AI工作流编辑工具。你可以将复杂的工作分解成多个步骤,并通过VectorVein固定并让AI依次完成。VectorVein是字节coze的平替产品。
项目地址:https://github.com/AndersonBY/vector-vein?tab=readme-ov-file
在线使用:https://vectorvein.ai/(付费)
【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。
项目地址:https://github.com/Significant-Gravitas/AutoGPT
【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。
项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md
【开源免费】MindSearch是一个模仿人类思考方式的AI搜索引擎框架,其性能可与 Perplexity和ChatGPT-Web相媲美。
项目地址:https://github.com/InternLM/MindSearch
在线使用:https://mindsearch.openxlab.org.cn/
【开源免费】Morphic是一个由AI驱动的搜索引擎。该项目开源免费,搜索结果包含文本,图片,视频等各种AI搜索所需要的必备功能。相对于其他开源AI搜索项目,测试搜索结果最好。
项目地址:https://github.com/miurla/morphic/tree/main
在线使用:https://www.morphic.sh/
【开源免费】XTuner 是一个高效、灵活、全能的轻量化大模型微调工具库。它帮助开发者提供一个简单易用的平台,可以对大语言模型(LLM)和多模态图文模型(VLM)进行预训练和轻量级微调。XTuner 支持多种微调算法,如 QLoRA、LoRA 和全量参数微调。
项目地址:https://github.com/InternLM/xtuner
【开源免费】LangGPT 是一个通过结构化和模板化的方法,编写高质量的AI提示词的开源项目。它可以让任何非专业的用户轻松创建高水平的提示词,进而高质量的帮助用户通过AI解决问题。
项目地址:https://github.com/langgptai/LangGPT/blob/main/README_zh.md
在线使用:https://kimi.moonshot.cn/kimiplus/conpg00t7lagbbsfqkq0