在人类探索自然奥秘的征途中,科学工具的革新始终是突破认知边界的核心驱动力。2024年诺贝尔化学奖的颁发,标志着人工智能(AI)正式登上科学研究的核心舞台——三位获奖者通过AI驱动的蛋白质结构预测与设计,破解了困扰生物学半个世纪的难题,并实现了“从无到有”的蛋白质创新设计。这些发现不仅深化了我们对生命的理解,还为开发新药物、疫苗和环保技术,甚至解决抗生素耐药性和塑料降解等全球性挑战提供了实际解决方案。
这一里程碑事件尚未散去余温,2025年初微软发布的生成式AI模型MatterGen又在材料领域掀起惊涛骇浪:它逆向设计生成的新材料TaCr₂O₆,其体积模量实验值与设计目标误差不足20%,将传统材料研发周期从数年缩短至数周。这些突破揭示了一个不可逆的趋势:AI已从科学家的辅助工具蜕变为科学发现的“共谋者”,正在重构科学研究的底层逻辑。
▷ MatterGen设计的无机材料。图源:@satyanadella
面对这场科学革命,科研工作者正面临着前所未有的机遇与挑战。
一方面,许多科研人员虽然拥有扎实的专业知识背景,却缺乏足够的人工智能知识和技能,他们对AI的应用可能感到困惑和局限,更不知道从何处着手,以让AI在具体的科研任务中发挥最大效能。另一方面,许多科研领域依赖的湿实验方法,需要高昂的试错成本和大量重复性实验,加上人力、物力的巨额消耗,也为科研进程增添了很大的不确定性。
在此过程中,许多看似无用的数据被遗弃,导致一些潜在有价值的信息未能被充分发掘,造成了巨大的资源浪费。在AI领域,自然科学和社会科学领域中的数据往往存在长期匮乏的情况,即便勉强搜集到数据,也难免存在置信度不足或可解释性欠缺的问题(研究人员在评估模型性能时会有选择性地挑选评估指标)。尤其在大语言模型(LLMs)的应用中,“胡编乱造”或错误引用时有发生,进一步加深了对AI 结果可信度的疑虑。
AI技术的“黑箱”特性,也使得许多生成的结果缺乏透明度,无法明确解释背后的机制和逻辑,从而影响了其在科研中的信任度和应用深度。更为严峻的是,随着AI技术逐渐发展和普及,一些本来由人类科学家完成的工作逐步被自动化,部分岗位甚至面临被取代的风险。越来越多科研工作者担心,AI技术的普及可能导致人类的创造性工作被削弱。最终,若不谨慎把握AI的发展方向,这场技术革命可能带来社会结构、职业市场和科学伦理的深刻变化。
本文针对科研工作者如何应对挑战、拥抱人工智能助力科学研究,提供了一些可供参考的实践指导和策略建议。本文会首先阐明人工智能助力科学研究的关键领域,并探讨在这些方向取得突破所需的核心要素。随后将深入分析在科学研究中使用人工智能时常见的风险,特别是对科学创造力和研究可靠性的潜在影响,并提供如何通过合理的管理与创新,利用人工智能带来最终整体的净效益。最后,本文将提出三项行动指南,旨在帮助科研工作者在这场变革中以主动姿态拥抱AI,开启科学探索的黄金时代。
为了取得新的突破性发现,科学家们往往得面对一座又一座日益庞大的知识高峰。又因为新知识层出不穷、专业分工不断深化,“知识负担”愈发沉重,导致具备重大创新力的科学家平均年龄越来越大,也更倾向于跨学科研究,且多在顶尖学术机构扎根。即便小团队通常更具推动颠覆性科学理念的能力,但由个人或小团队撰写的论文比例却逐年下降。在科研成果分享方面,多数科学论文行文晦涩、术语繁多,不仅阻隔了科研工作者之间的交流,更难以激发其他科研工作者、公众、企业或者政策制定者对相关科研工作的兴趣。
然而,随着人工智能,尤其是大语言模型的发展,我们正在发现新的方法来应对当前科研中的种种挑战。借助基于LLM的科学助手,我们能够更加高效地从海量文献中提炼出最相关的见解,还可以直接对科研数据提出问题,例如探索研究中行为变量之间的关联。如此一来,繁琐的分析、写作和审稿过程不再是获取新发现的“必经之路”,“从数据中提取”科学发现,也有望显著加快科学进程。
随着技术进步,尤其是通过在科学领域特定数据上微调LLM,以及在长上下文窗口处理能力和跨文献引用分析方面的突破,科学家们将能够更高效地提取关键信息,从而显著提升研究效率。更进一步,若能开发出“元机器人”式的助手,跨越不同的研究领域整合数据,就有望解答更复杂的问题,为人类勾勒出学科知识的全景。可以预见,未来可能会出现专门为这些“论文机器人”设计高级查询的科研工作者,借由智能拼接多个领域的知识“碎片”,推动科学探索的边界。
尽管这些技术提供了前所未有的机会,它们也伴随着一定的风险。我们需要重新思考一些科学任务的本质,特别是在科学家可以依赖LLM帮助批判性分析、调整影响力或将研究转化为互动式论文、音频指南等形式时,“阅读”或“撰写”科学论文的定义可能会发生变化。
随着科研数据的不断增加,人工智能正在为我们提供越来越多的帮助。例如,它能够提高数据收集的准确性,减少在DNA测序、细胞类型识别或动物声音采集等过程中可能出现的错误和干扰。除此之外,科学家们还可以利用LLM增强的跨图像、视频和音频分析能力,从科学出版物、档案资料和教学视频等较为隐蔽的资源中提取隐藏的科学数据,并将其转化为结构化的数据库,便于进一步分析和使用。人工智能还能够为科学数据添加辅助信息,帮助科学家更好地使用这些数据。例如,至少三分之一的微生物蛋白质功能细节尚无法可靠注释。2022年,DeepMind的研究人员通过人工智能预测蛋白质的功能,为UniProt、Pfam和InterPro等数据库增添了新的条目。
当真实数据不够时,经过验证的人工智能模型还能成为合成科学数据的重要来源。AlphaProteo蛋白质设计模型便是基于超过1亿个由AlphaFold 2生成的人工智能蛋白质结构,以及来自蛋白质数据库的实验结构进行训练。这些人工智能技术不仅能够补充现有的科学数据生成过程,还能显著提升其他科研努力的回报,例如档案数字化,或资助新的数据采集技术和方法。以单细胞基因组学领域为例,正以前所未有的精细度构建庞大的单细胞数据集,推动这一领域的突破与进展。
▷ alphafold预测的某蛋白结构图,颜色越蓝可信度越高,越红可信度越低。图源:AFDB
许多科学实验成本高昂、复杂且耗时漫长,也有些实验因为研究人员无法获取所需的设施、参与者或投入根本无法开展。核聚变就是一个典型的例子。核聚变有望成为一种几乎取之不尽、零排放的能源,并能推动海水淡化等高能耗创新技术的规模化应用。要实现核聚变,科学家们需要创造并控制等离子体。然而,所需的设施建造起来却极其复杂。国际热核聚变实验堆的原型托卡马克反应堆于2013年开始建造,但最早也要到2030年代中期才能开始进行等离子体实验。人工智能能够帮助模拟核聚变实验,并使后续实验时间得到更高效的利用。研究者们可以在物理系统的模拟中运行强化学习代理来控制等离子体的形状。类似的思路也可以推广到粒子加速器、天文望远镜阵列或引力波探测器等大型设施上。
利用人工智能模拟实验在不同学科中的表现形式会大相径庭,但一个共同点是,这些模拟通常会为物理实验提供信息和指导,而非取而代之。例如,AlphaMissense模型能够对7100万种潜在人类错义变异的89%进行分类,帮助科学家聚焦于那些可能导致疾病的变异,从而优化实验资源的配置,提升研究效率。
▷ DIII-D的反应室,这是一个由通用原子公司在圣地亚哥运营的实验性托卡马克聚变反应堆,自20世纪80年代末完工以来一直用于研究。典型的环形腔室覆盖有石墨,有助于承受极端高温。图源:Wikipedia
在 1960 年的一篇论文中,诺贝尔物理学奖得主尤金·维格纳(Eugene Wigner)对数学方程在模拟诸如行星运动等自然现象时展现的“不可思议的有效性”感到惊叹。然而,在过去的半个世纪里,依赖方程组或其他确定性假设的模型,始终难以全面捕捉生物学、经济学、天气和其他复杂领域系统中瞬息万变的动态与混沌。这些系统的构成部分数量庞大、相互作用密切,且可能发生随机或混沌行为,使科学家们难以预判或掌控其在复杂情景下的反应。
人工智能则可以通过获取更多关于这些复杂系统的数据,并从中学习更强大的模式和规律,来改进对其的建模。例如,传统的数值预测主要基于精心定义的物理方程,对大气复杂性有一定解释力,但精度始终不足,且计算成本高昂。而基于深度学习的预测系统,能够提前10天预测天气状况,在准确性和预测速度方面均胜过传统模型。
在许多情况下,AI 并非取代传统复杂系统的建模方法,而是赋予其更丰富的工具。例如,基于智能体的建模方法通过模拟个体(比如公司和消费者)之间的互动,来研究这些互动如何影响像经济这样的更大、更复杂的系统。传统的方法要求科学家预先设定智能体的行为方式,如"看到商品涨价就少买10%""每个月存工资的5%"。但现实的复杂度常让这些模型“捉襟见肘”,对新兴现象(如直播带货对零售业的冲击)难以给出准确预测。
在人工智能的帮助下,科学家现在可以创建更加灵活的智能体。这些智能体能够进行交流、采取行动(如搜索信息或购买商品),并能对这些行动进行推理和记忆。利用强化学习还可以让这些智能体在动态环境中进行学习和适应,甚至在面对能源价格变动或应对疫情政策变化时,智能体能够自行调整自己的行为。这些新方法不仅提高了模拟的灵活性和效率,还为科学家们提供了更多创新的工具,帮助他们应对日益复杂的研究问题。
许多重要的科学问题尝尝伴随着近乎天文数字级的难以理解的潜在解决方案。设计小分子药物时,科学家要在 1060 之多的可能性中筛选;而若设计含 400 个标准氨基酸的蛋白质,选择空间甚至高达 1020400。传统上,科学家依靠直觉、试错、迭代或强力计算的组合来寻找最佳的分子、证明或算法。但这些方法难以穷尽搜索空间,因而往往与最佳方案失之交臂。人工智能则能够开辟这些搜索空间的新领域,同时更快地聚焦于最有可能是可行和有用的解决方案——这是一个微妙的平衡。
2016 年 AlphaGo 对弈李世石为例。AI 的落子位置看似不合常规,甚至超出了人类传统的棋路与经验,但却成功扰乱李世石的思路,反而让 AlphaGo 更易掌控局势。李世石后来表示,自己被这一着棋震惊到了。这意味着AlphaGo的这一着棋完全超出了人类传统棋手的思维方式和经验。也证明了AI可以在巨大的可能性空间中发现人类未曾想到的解决方案,从而推动策略革新。
▷ AlphaGo(执黑)与李世石(执白)对战第二局的落子情况,最终AlphaGo赢下本局。AlphaGo 的第37手落在了第五线,超出了绝大多数棋手和专家的预料。赛后,很多人对这步棋评价甚高,认为这展现了AlphaGo的全局判断力。图源:芥子观须弥
正如量子力学奠基人海森堡所言,“提出正确的问题,往往等于解决了问题的大半”。那么,怎样评估问题的好坏呢?DeepMind首席执行官Demis Hassabis提出了一个思维模型:如果将整个科学看作一棵知识树,我们应该特别关注的是树根——那些基本的“根节点问题”,解决这些问题可以解锁全新的研究领域和应用。其次,需要评估人工智能是否适用且能够带来增益,我们需要寻找具有特定特征的问题,例如巨大的组合搜索空间、大量数据和明确的目标函数,以进行性能基准评估。
通常,一个问题在理论上适合人工智能,但由于输入数据尚未到位,可能需要暂时搁置,等待时机。除了选择合适的问题外,指定问题的难度级别和可行性也至关重要。人工智能的强大问题陈述能力往往体现在那些能够产生中间结果的问题上。如果选择一个过于困难的问题,就无法生成足够的信号来取得进展。这需要依赖直觉和实验来实现。
科学家们使用多种评估方法,如基准测试、度量标准和竞赛,来评估人工智能模型的科学能力。通常,多个评估方法是必要的。例如,天气预报模型从一个初步的“进展度量”开始,基于一些关键变量(如地表温度),来“爬升”模型的性能。当模型达到一定的性能水平时,他们使用超过1300个度量(灵感来源于欧洲中期天气预报中心的评估评分卡)来进行更全面的评估。
对科学最具影响力的人工智能评估方法通常是由社区推动或得到认可的。社区的支持也为发布基准测试提供了依据,使研究人员可以使用、批评并改进这些基准。但此过程中需警惕一个隐忧:基准数据若被模型的训练过程意外“吸收”,评估准确度便会打折扣。目前尚无完美方案来应对这一矛盾,但定期推出新公共基准、建立新的第三方评估机构并举办各类竞赛,都是持续检验与完善 AI 科研能力的可行之道。
人工智能在科学领域的应用往往默认是多学科的,但要取得成功,它们需要真正转变为跨学科的合作。一个有效的开端是选择一个需要各种专业知识的科学问题,然后为其提供足够的时间和精力,以便围绕问题培养团队的协作精神。例如,DeepMind的伊萨卡项目(Ithaca project)利用人工智能修复和归类受损的古希腊铭文,帮助学者研究过去文明的思想、语言和历史。为了取得成功,项目的联合负责人Yannis Assael必须理解碑铭学——研究古代刻写文字的学科。而项目中的碑铭学家们则必须学习AI模型的工作原理,以便将自己的专业直觉与模型输出相结合。
这种团队精神的养成,离不开恰当的激励机制。赋予一个小而紧密的团队专注于解决问题的权力,而非专注于论文的作者署名,是AlphaFold 2取得成功的关键。这样的专注在工业实验室中可能更容易实现,但也再次强调了长周期公共科研资助的重要性,尤其是这种资助不应过于依赖于出版压力。
同样,组织还需要为能够融合不同学科的人才创造职位和职业发展路径。例如在谷歌,DeepMind的研究工程师在推动研究与工程之间的良性互动中发挥了关键作用,项目经理则有助于培养团队合作氛围,并促进团队之间的沟通与协作。那些能够识别和连接不同学科之间联系,并迅速提升新领域技能的人才应该给予更多的重视。此外,为了激发思想交流,组织应鼓励科学家和工程师定期调整项目,建立一种促进好奇心、谦逊态度和批判性思维的文化,使不同领域的从业者能够在公开讨论中提出建设性的意见和反馈。
当然,建立合作伙伴关系绝非易事。在开始讨论时,必须尽早达成共识,明确整体目标,并解决一些棘手的潜在问题,比如各方对成果的权利分配、是否发表研究、是否开源模型或数据集、以及应采用什么类型的许可。分歧在所难免,但如果能让不同激励机制下的公共与私营组织找到清晰、对等的价值交换点,那么就有可能在充分发挥各自优势的同时,共同走向成功。
▷ 伊萨卡(Ithaca)的架构。文本中受损部分用短横线“-”表示。在此例中,项目组人为损坏了字符“δημ”。基于这些输入,伊萨卡能够恢复文本,并识别出文本撰写的时间和地点。图源:deepmind
2023年Nature刊发的深度调查报告显示,全球62%的科研团队已在数据分析中使用机器学习工具,但其中38%的研究欠缺对算法选择的充分论证。这种普遍性警示我们:AI正在重塑科研范式的同时,也在制造新的认知陷阱。
虽然AI可以帮助我们从海量信息中提取有用的规律,但它往往基于已有数据和知识进行推演,而不是从全新的视角出发进行创造性思考。这种“模仿”式的创新,可能使得科学研究变得越来越依赖于已有的数据和模型,从而限制了科研人员的思维广度。在过度依赖AI的情况下,我们有可能忽视一些原创的、非传统的研究方法,这些方法或许能打开新的科学领域。尤其在探索未知和前沿领域时,人的直觉和独立思考能力依然至关重要。
除了对科学创造力的影响,AI的普及还可能对研究的可靠性和理解力带来隐患。AI在提供预测和分析时,往往基于概率和模式识别,而不是直接的因果推理。因此,AI给出的结论可能只是一种统计上的相关性,而不一定代表真实的因果关系。此外,AI算法的“黑箱”特性也使得它们的决策过程变得不透明。因此对于科研人员而言,理解AI得出的结论背后的逻辑至关重要,尤其是在需要对结果进行解释或应用到实际问题时。若我们盲目接受AI的结果而不加以审视,可能会导致误导性结论的产生,进而影响研究的可信度。
另一方面,我们认为,若能合理管理AI的风险,便有机遇将这项技术深度融入科学探索,帮助应对更多层面的挑战,甚至带来深远影响。
科学创造力指的是在科学研究中,个体或团队通过独特的思维方式、方法论或视角,提出新颖的假设、理论、方法或解决方案,推动科学进展的能力。在实际操作中,科学家通常基于一些主观因素来判断一个新想法、方法或成果是否具备创造性,比如它的简洁性、反直觉性或美感。一些科学家担心,大规模使用AI可能削弱科学中更具直觉性、偶然发现式或不拘一格的研究方式。这个问题可能通过不同方式表现出来。
一个担忧是,AI模型经过训练后会尽量减少训练数据中的异常值,而科学家往往通过跟随直觉放大异常值,来应对一些令人困惑的数据点。另一个担忧是,AI系统通常被训练来完成特定任务,依赖AI可能会错过更多偶然的突破,比如那些未曾研究的问题的解决办法。在社区层面,一些人担心,如果科学家大规模拥抱AI,可能会导致研究成果的逐渐同质化,毕竟,大型语言模型在回应不同科学家的提问时可能会产生相似的建议,或是科学家会过度关注那些最适合AI解决的学科和问题。
为缓解此类风险,科研人员可在保证探索性研究深度的前提下,灵活调整AI使用策略。例如,通过对大型语言模型进行微调,使其能够提供更个性化的研究创意,或帮助科学家更好地引发自己的想法。
AI还能够促进一些可能原本不会出现的科学创造性。其中一种AI创造性是插值(Interpolation),即AI系统在其训练数据中识别出新的想法,尤其是在人的能力受到限制的情况下。例如,使用AI检测来自大型强子对撞机实验的大规模数据集中的异常值。
第二种是外推(Extrapolation),在这种情况下,AI模型能够将知识推广到训练数据之外,提出更具创新性的解决方案。
第三种是发明(Invention),AI系统提出完全脱离其训练数据的全新理论或科学体系,类似于广义相对论的最初发展或复数的创造。虽然目前AI系统尚未展示出这样的创造性,但新的方法有望解锁这种能力,例如多智能体系统,这些系统会针对不同的目标(如新颖性和反直觉性)进行优化,或者是科学问题生成模型,专门训练用于生成新的科学问题,进而激发创新的解决方案。
可靠性指的是科学家们在相互依赖他人研究成果时的信任程度,他们需要确保这些结果并非偶然或错误。目前人工智能研究中存在不良做法,科研工作者在进行科学研究时应高度警惕。例如研究人员根据自己的偏好挑选用来评估模型表现的标准,而AI模型,尤其是LLMs,也容易“幻觉”产生“幻觉”,即虚假或误导性的输出,包括科学引用。LLMs还可能会导致大量低质量论文的泛滥,这些论文类似于“论文工厂”产生的作品。
为了应对这些问题,目前已经存在一些解决方案,包括制定供研究人员遵循的良好实践清单,以及不同类型的AI事实性研究,例如训练AI模型将其输出与可信来源对接,或帮助验证其他AI模型的输出。
另一方面,科研人员还可以利用AI提升更广泛研究基础的可靠性。例如,如果AI能够帮助自动化数据注释或实验设计的部分过程,这将为这些领域提供迫切需要的标准化。随着AI模型在将其输出与引用文献对接方面的能力不断提升,它们也可以帮助科学家和政策制定者更系统地回顾证据基础。科研人员还可以使用AI帮助检测错误或伪造的图像或识别误导性的科学声明,比如Science期刊最近对一款AI图像分析工具的试验。AI甚至可能在同行评审中发挥作用,尤其考虑到一些科学家已经使用LLMs来帮助审阅自己的论文以及验证AI模型的输出。
在Nature杂志最近的一项调查中,科学家们认为,使用AI进行科学研究最大的风险是依赖模式匹配,而忽视了深入的理解。对于AI可能破坏科学理解的担忧,其中之一是对现代深度学习方法 “无理论”的质疑。它们并不包含,也没有为所预测现象提供理论解释。科学家们还担心AI模型的“不可解释性”,即它们不基于明确的方程式和参数集。还有人担心任何解释AI模型输出的方式都不会对科学家有用或易于理解。毕竟,AI模型或许能提供蛋白质结构或天气预测,却未必能告诉我们为何蛋白质以特定方式折叠,或大气动力学又是如何导致气候变化。
其实,人们对“用低级的计算替代‘真正的理论科学’”的担忧并不新鲜,过去的技术,如蒙特卡罗方法,也曾遭到过类似的批评。将工程学与科学相结合的领域,如合成生物学,也曾被指责优先考虑有用的应用而忽视深入的科学理解。但历史证明,这些方法和技术最终推动了科学理解的发展。更何况,大多数AI模型并非真正的“无理论”。它们通常基于先前知识构建数据集与评估标准,有些还具备一定程度的可解释性。
如今的可解释性技术正不断发展,研究者尝试通过识别模型中学到的“概念”或内在结构,来理解AI的推断逻辑。尽管这些可解释性技术有很多局限性,但它们已经使科学家能够从AI模型中得到新的科学假设。例如,有研究能够预测DNA序列中每个碱基对不同转录因子结合的相对贡献,并用生物学家熟悉的概念解释这一结果。此外,AlphaZero在下棋时学到的“超人类”策略,经由另一个AI系统解析后,还能传授给人类棋手。这意味着,AI学习的“新概念”或许能反哺人类认知。
即使没有可解释性技术,AI也能通过开启新的研究方向来改善科学理解,这些方向本来是无法实现的。例如,通过解锁生成大量合成蛋白质结构的能力,AlphaFold使科学家能够跨越蛋白质结构进行搜索,而不仅仅是蛋白质序列。这一方法被用来发现Cas13蛋白家族的一个古老成员,该成员在RNA编辑方面有潜力,尤其是在帮助诊断和治疗疾病方面。这个发现还挑战了关于Cas13进化的先前假设。相反,尝试修改AlphaFold模型架构以融入更多的先验知识,却导致了性能下降。这凸显了准确性与可解释性之间的权衡。AI“模糊性”源于自它们能够在高维空间中操作,而这些空间对人类来说可能是不可理解的,但却是科学突破所必需的。
显然,科学及人工智能在加速科学进程中的潜力应当引起科研工作者的高度重视。那么,科研工作者应该从哪里开始呢?为了充分利用AI驱动的科学机遇,以主动的姿态拥抱变革是必要的。或许有这样一些建议可以采用。
首先,掌握AI工具的语言,如理解生成模型、强化学习等技术原理,并熟练运用开源的代码库进行定制化探索;其次要构建数据与实验的闭环,将AI生成结果通过自动化实验室(如加州大学伯克利分校A-Lab)快速验证,形成“假设-生成-验证”的迭代链路;更重要的是重塑科研想象力——当AI能设计出超越人类经验范畴的蛋白质或超导体时,科学家应转向更本质的科学问题,例如通过AI揭示材料性能与微观结构的隐变量关系,或探索多尺度跨物理场的耦合机制。正如诺贝尔奖得主David Baker所言:“AI不是替代科学家,而是赋予我们触碰未知的阶梯。”在这场人机协同的探索中,唯有将人类的创造性思维与AI的计算暴力深度融合,方能真正释放科学发现的无限可能。
https://www.aipolicyperspectives.com/p/a-new-golden-age-of-discovery
https://mp.weixin.qq.com/s/_LOoN785XhnXao9s9jTSVQ
243145.
文章来自于“追问”,作者“贺敬”。
【开源免费】paperai是一个可以快速通过关键词搜索到真实文献并将其应用到论文写作当用的功能。
项目地址:https://github.com/14790897/paper-ai
在线使用:www.paperai.life
【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。
项目地址:https://github.com/Significant-Gravitas/AutoGPT
【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。
项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md
【开源免费】XTuner 是一个高效、灵活、全能的轻量化大模型微调工具库。它帮助开发者提供一个简单易用的平台,可以对大语言模型(LLM)和多模态图文模型(VLM)进行预训练和轻量级微调。XTuner 支持多种微调算法,如 QLoRA、LoRA 和全量参数微调。
项目地址:https://github.com/InternLM/xtuner
【开源免费】VideoChat是一个开源数字人实时对话,该项目支持支持语音输入和实时对话,数字人形象可自定义等功能,首次对话延迟低至3s。
项目地址:https://github.com/Henry-23/VideoChat
在线体验:https://www.modelscope.cn/studios/AI-ModelScope/video_chat
【开源免费】Streamer-Sales 销冠是一个AI直播卖货大模型。该模型具备AI生成直播文案,生成数字人形象进行直播,并通过RAG技术对现有数据进行寻找后实时回答用户问题等AI直播卖货的所有功能。
项目地址:https://github.com/PeterH0323/Streamer-Sales