受R1启发,微软亚洲发布Logic-RL,帮助LLM通过RL解决"骑士与骗子"逻辑谜题

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
受R1启发,微软亚洲发布Logic-RL,帮助LLM通过RL解决"骑士与骗子"逻辑谜题
5800点击    2025-02-26 09:56

有这么一个情景:你让AI解决一个简单的逻辑问题,如"如果所有的A都是B,且X是A,那么X是B吗?"虽然对人类来说这是显而易见的推理,但LLM却可能给出错误答案,尤其是当问题变得更复杂,需要多步推理时。这不仅仅是学术上的好奇心,而是影响AI在医疗诊断、法律分析、金融决策等关键领域应用的实际问题。


受R1启发,微软亚洲发布Logic-RL,帮助LLM通过RL解决


图片由修猫创作


本文深入解析一项开创性研究——"Logic-RL: Unleashing LLM Reasoning with Rule-Based Reinforcement Learning",该研究通过基于规则的强化学习技术显著提升了语言模型的推理能力。微软亚洲的研究团队受DeepSeek-R1成功经验的启发,利用结构化的逻辑谜题作为训练场,为模型创建了一个可以系统学习和改进推理技能的环境。


受R1启发,微软亚洲发布Logic-RL,帮助LLM通过RL解决


什么是"骑士与骗子"谜题?


在深入探讨Logic-RL的方法之前,让我们先了解研究中使用的关键训练材料——"骑士与骗子"(Knights and Knaves)逻辑谜题。这类谜题最早由数学家雷蒙德·斯穆利安(Raymond Smullyan)popularize,后来成为逻辑思维训练和益智游戏的经典素材。


谜题的基本规则


想象一个神秘的岛屿,岛上居民分为两种:骑士和骗子。


  • 骑士
  • :总是说真话,无论在什么情况下
  • 骗子
  • :总是说谎话,无论在什么情况下


作为访客,你的任务是通过分析居民的陈述来判断谁是骑士,谁是骗子。这听起来简单,但当多个居民相互关联的陈述交织在一起时,问题可能变得异常复杂。


一个简单例子


让我们看一个入门级例子:


岛上有两位居民A和B。A说:"我们两人至少有一个人是骗子。"问:A和B各自是什么身份?


解题思路:


  1. 先假设A是骑士。那么A说的"我们两人至少有一个人是骗子"就是真的。这意味着A和B中至少有一个是骗子。由于我们假设A是骑士,所以B必须是骗子。这个假设产生了一个自洽的情况:A是骑士,B是骗子。
  2. 再假设A是骗子。那么A说的话就是假的,意味着"我们两人至少有一个人是骗子"这句话是假的。这句话的否定是"我们两人都是骑士"。但这与我们假设A是骗子相矛盾!所以A不可能是骗子。
  3. 综上所述,唯一可能的情况是:A是骑士,B是骗子。


这个简单的例子展示了解决此类谜题的基本逻辑过程:尝试不同假设,排除矛盾情况,找到唯一符合所有陈述的解答。


更复杂的谜题


随着居民数量增加和陈述复杂化,这类谜题可以变得极其复杂。例如:


岛上有三位居民A、B和C。

  • A说:"B是骑士。"
  • B说:"如果A是骑士,那么C也是骑士。"
  • C说:"A和B不同类型。"

问:这三位居民各自是什么身份?

  • A是骑士,那么C也是骑士。"C说:"A和B不同类型。"

问:这三位居民各自是什么身份?


解决这类问题需要系统性思考、条件逻辑和排除法,正是这些特质使"骑士与骗子"谜题成为测试和训练推理能力的理想工具。这道题即便推理模型R1 和Sonnet 3.7来解答,也是极其不容易:


受R1启发,微软亚洲发布Logic-RL,帮助LLM通过RL解决


受R1启发,微软亚洲发布Logic-RL,帮助LLM通过RL解决


受R1启发,微软亚洲发布Logic-RL,帮助LLM通过RL解决

Logic-RL的核心理念:用规则引导思考


从记忆到推理:突破LLM的认知极限


传统的大型语言模型主要依靠统计关联和模式识别来生成回应。我们可以把这比作一个学生通过记忆历年考题答案来应对考试,而非真正理解解题方法。这种方式在需要严格逻辑推理的情境中表现不佳,就像记住了"2+2=4"但不理解加法原理的学生无法解答"17+28"一样。


Logic-RL的核心理念在于利用基于规则的强化学习,将模型从简单的文本关联提升至系统化推理。这相当于不再要求学生死记硬背答案,而是教会他们解题方法和思考过程。


这种方法的独到之处在于,它不要求模型通过单纯记忆来提高性能,而是鼓励模型自主探索和发现推理规则。传统的监督式微调(SFT)方法往往导致模型仅仅记住训练数据中的模式,就像学生只记住"这道题选B"而不知道为什么。相比之下,强化学习创造了一个让模型"学会如何学习"的环境,通过试错过程培养真正的理解能力。


研究结果清晰地表明,经过强化学习训练的模型在未曾见过的问题上表现优异,而仅经过监督式微调的模型则表现出明显的记忆特征——在微小变化的问题上表现显著下降。这种对比验证了Logic-RL方法在培养真正泛化能力方面的优势。


骑士与骗子:完美的推理训练场


为什么选择"骑士与骗子"类型的逻辑谜题作为训练数据?这一选择绝非偶然,而是基于这类谜题具有的多种独特优势:


1. 可控的复杂性

这类谜题可以从简单的两人问题逐步扩展到包含七人甚至更多的复杂情境。研究者可以精确控制难度级别,为模型创造渐进式学习曲线,就像教育者会从简单问题开始,逐步增加挑战。


2. 明确的答案

每个谜题都有确定无疑的正确答案,可以通过逻辑推导严格验证。这使得自动评估模型回答的正确性变得简单,为强化学习提供清晰的奖励信号。


3. 需要多种推理技能

解决这类谜题需要多种逻辑推理技能的组合:


  • 反证法
  • :通过检验一个假设导致的矛盾来确定其错误性
  • 条件推理
  • :理解"如果...那么..."类型的陈述及其逻辑含义
  • 系统排除法
  • :有序地检验每种可能性,排除不符合条件的选项
  • 元认知
  • :思考关于思考的过程,评估推理步骤的有效性


这些正是解决广泛现实问题所需的基础认知技能,从医疗诊断("如果患者有症状A但没有症状B,那么可能的疾病是...")到法律推理("如果条款X适用,则Y必须成立...")。


4. 抽象性与纯粹性

"骑士与骗子"谜题是纯粹的逻辑问题,不依赖于特定领域知识。这种抽象性使得模型必须依靠纯粹的推理能力而非记忆或领域特定信息来解决问题,从而培养出更加普适的推理能力。


实验表明,模型在训练过程中不仅学会了解决这些特定谜题,还自发发展出了复杂的推理行为,如探索多条可能路径、验证中间结果、系统性总结发现等。这些行为与人类解决复杂问题的策略惊人地相似,表明模型正在发展出真正的推理能力,而非仅仅记忆解题步骤。


研究方法与实验设计:简明易懂的强化学习框架


打造理想的训练环境


想象一下,如何教会一个孩子下国际象棋?你可能会从基本规则开始,设置简单的局面让他实践,然后根据表现给予反馈,逐渐增加难度。Logic-RL研究采用了类似的方法来培养AI的推理能力。


研究人员创建了一个包含从3人到7人不等复杂度的"骑士与骗子"逻辑谜题合成数据集,总计不超过5,000个样本。这相当于为AI准备了从初级到高级的"推理教材"。与传统方法不同的是,这里不仅仅关注"答案对错",还关注"思考过程是否合理"。以下是实验结果:


受R1启发,微软亚洲发布Logic-RL,帮助LLM通过RL解决


实验使用Qwen2.5-7B-Instruct-1M作为基线模型,这就像选择一个拥有良好基础知识但缺乏特定技能的学生作为培训对象。然后研究者比较了不同"教学方法"(强化学习算法)的效果:


  • GRPO
  • :一种基础方法
  • REINFORCE++
  • :平衡了学习效率和性能提升
  • PPO
  • :性能最佳但学习速度较慢


打个比方,REINFORCE++就像一位能够快速给出有效反馈的教练,而PPO则像一位更全面但节奏较慢的导师。对于大多数实际场景,REINFORCE++提供了最佳平衡,就像在有限时间内取得最大进步的教学方法。


超越记忆:如何验证真正的理解


如何区分"背诵公式"和"理解概念"?这是教育中的经典问题,也是Logic-RL研究面临的关键挑战。为了验证模型是否真正学会了推理而非仅仅记忆,研究者设计了一套巧妙的测试方法。


他们创建了原始谜题的变体,保持核心逻辑不变但改变表述方式。例如,将"如果我是骑士,那么他是骗子"改为语义相同但表达不同的陈述,或者改变陈述的顺序。这相当于保持数学问题的本质不变,但改变文字描述和数字,以测试学生是否真正理解原理。


研究引入了"本地不一致性记忆分数"(Local Inconsistency-based Memorization Score,简称LiMem)来量化模型的记忆程度。该指标结合了模型在训练集上的准确率与其对数据扰动的敏感性。这就像一位精明的教师,不仅看学生在课堂练习中的表现,还观察他们如何应对稍有变化的家庭作业。


实验结果令人信服:通过强化学习训练的模型在面对变体时保持高性能,表明它们真正理解了推理原则;而通过传统监督学习训练的模型在变体上表现显著下降,暴露出它们主要依赖记忆而非理解。


这一发现对AI产品开发具有深远意义:通过适当的训练方法,机器不仅能"会做题",还能真正"懂原理",为构建真正智能的系统铺平了道路。


系统提示与奖励函数设计:引导理性思考的关键

精心设计的系统提示


在Logic-RL框架中,系统提示的设计发挥着至关重要的作用。研究者采用了独特的提示结构,鼓励模型遵循特定的思考模式和输出格式。这一提示强调了思考和回答过程的分离,使用特定的标记...来界定推理过程,而最终答案则放在...标记内。


受R1启发,微软亚洲发布Logic-RL,帮助LLM通过RL解决


这种结构化提示有多重优势:首先,它鼓励模型进行显式的、可追踪的推理过程,而非直接跳到结论;其次,它使得奖励函数可以分别评估思考过程的质量和最终答案的正确性;第三,它创造了一个模型可以"尝试各种思考路径"而不影响最终评分的安全空间。


实验表明,这种提示结构显著提高了模型的推理能力,使其自然发展出各种复杂的认知行为。例如,模型开始在部分展示犹豫和自我验证,提出多条可能的解决路径,甚至使用正式的逻辑公式来检验推理。这些行为令人惊讶地类似于人类解决复杂问题时的思考过程,表明模型正在发展出真正的推理能力。


严格的奖励函数:指引探索方向


Logic-RL的另一个关键创新是其严格的奖励函数设计。奖励函数不仅评估最终答案的正确性,还评估推理过程的质量和格式的合规性。这种多维度的奖励机制引导模型发展出更加全面的推理能力。


奖励函数的设计体现了几个重要原则:首先,正确的答案获得最高奖励,确保模型关注最终目标;其次,符合格式要求的回应获得额外奖励,鼓励模型生成结构良好的输出;第三,展示清晰推理过程的回应获得额外奖励,促使模型发展出系统性思考能力。


此外,研究者还使用KL散度约束,确保模型在优化过程中不会过度偏离其原始行为。这种平衡至关重要,因为它允许模型探索新的推理策略,同时保持其语言生成能力和预训练知识。


实验结果表明,这种奖励函数设计成功引导模型发展出高级推理技能。特别是,模型不仅学会了解决特定类型的谜题,还自发发展出了更广泛适用的推理策略,能够泛化到未见过的问题类型,证明了奖励函数在培养真正理解能力方面的有效性。


训练过程与涌现行为:超越设计的智能


不只是记忆:真正学会推理


Logic-RL训练过程中最令人震惊的发现之一是模型自发展现出的复杂推理行为。研究者并未在训练数据中明确包含这些行为,它们完全是模型与强化学习环境交互过程中自然涌现的结果。


这些行为包括四种关键模式:首先是犹豫和自我验证,模型会使用类似"我不完全确定,让我们重新检查这一步"的表达,然后在提供最终答案前系统性地验证所有先前步骤;其次是多路径探索和回溯,模型会提出多种可能的解决方案并回溯检查一致性;第三是公式应用,模型本能地应用"如果P,那么Q"等形式逻辑推理公式;第四是偶尔的语言切换,在推理过程中模型可能会暂时切换到中文等其他语言。


这些涌现行为的意义深远,它表明模型不仅学会了解决特定问题,还发展出了元认知能力——思考自己的思考过程。这种能力对于处理复杂推理任务至关重要,因为它允许模型评估其推理步骤的质量、探索替代解决方案并在必要时调整思路。


训练进展:从简单到复杂


Logic-RL训练过程展示了模型能力的渐进式发展。研究发现,随着训练的进行,模型的输出长度几乎线性且稳定地增加,从初始的约500个标记增加到2000个标记,增长了4倍。这种长度增加伴随着更复杂行为的出现,如反思和探索替代解决方案。


然而,研究者也发现,长度增加与推理能力提升并非直接因果关系。在对比分析中,一个模型尽管输出长度略有下降,但在验证准确率和奖励上显示出显著改善;而另一个模型虽然输出长度持续增加,但验证准确率和奖励未见改善。这表明输出长度的变化可能是训练动态的副产品,而非推理能力提升的直接原因。


受R1启发,微软亚洲发布Logic-RL,帮助LLM通过RL解决


这张图表展示了强化学习训练过程中两个关键指标的变化趋势:验证准确率和平均响应长度。它揭示了一个重要发现:模型如何学习有效分配"思考计算资源"以提高推理性能。


图表关键发现


响应长度与推理能力的非线性关系:

  • 图表显示随着训练进行,模型的响应长度通常会增加(从约500个标记增至2000个标记)
  • 然而,更长的响应并不总是意味着更好的推理能力
  • 积极示例模型(图中蓝线)展示了响应长度略有下降但验证准确率显著提高的情况
  • 消极示例模型(图中红线)尽管响应长度持续增加,但验证准确率和奖励没有相应提高


思考计算资源的有效分配:

  • 模型学会了如何更智能地分配计算资源到推理过程中
  • 基础模型倾向于快速增加思考计算资源,而指令模型则保持更高的验证准确率
  • 这表明模型正在学习"思考质量"而非仅仅"思考量"


元认知能力的发展:

  • 响应长度的变化反映了模型发展出的复杂推理行为,如犹豫、自我验证、多路径探索等
  • 这些行为使模型能够在未见过的数据集上实现更好的泛化


实际意义


这一发现对AI系统开发具有重要启示:


  • 质量优于数量
  • - 在设计推理系统时,应关注推理质量而非简单地延长推理过程
  • 有效的计算分配
  • - 成功的模型学会了将计算资源分配到最有价值的推理步骤上,而非均匀分布
  • 泛化能力的基础
  • - 这种有效的思考计算分配是模型在未见过数据上表现良好的关键因素
  • 训练策略启示
  • - 强化学习训练应该奖励有效的推理过程,而非仅仅奖励冗长的响应


总之,这个图表揭示了模型如何通过强化学习发展出更高效的思考模式,学会在何处投入计算资源以最大化推理效果,这是实现真正推理能力而非简单记忆的关键。


对于"顿悟时刻"(Aha Moment)的探索是另一个有趣发现。DeepSeek-R1的研究中曾提到模型在训练过程中出现突然获得复杂推理能力的"顿悟时刻"。然而,Logic-RL研究的数据表明,复杂推理行为的出现可能更为渐进,而非在特定训练步骤突然涌现。跟踪词汇如"验证"、"重新评估"、"检查"等在前1,800个训练步骤中的频率,发现这些词的使用稳定增长,没有突然跳跃,表明可能不存在明显的"顿悟时刻"。


这一发现对于模型训练有重要启示:培养推理能力可能是一个渐进过程,而非突破性事件,这强调了持续训练和耐心评估的重要性。


泛化能力的突破:从逻辑谜题到数学难题

超越训练分布:惊人的泛化能力


Logic-RL研究的最令人震惊的发现之一是模型展现出的惊人泛化能力。尽管模型仅在3至7人的"骑士与骗子"逻辑谜题上训练(不到5,000个合成样本),但它能够泛化到分布外(OOD)场景,如8人谜题,并保持高准确率。


更为惊人的是,研究者将这种泛化能力推向极限,测试模型在完全不同领域的表现,称为"超级OOD"(Super OOD)。他们使用广泛采用的AIME 2021-2024(美国邀请赛数学考试)和AMC 2022-2023(美国数学竞赛)基准测试,这些都以严格且多样的问题集著称。


结果令人惊叹:经过强化学习训练的模型在AIME数据集上总体提升了125%,在AMC数据集上提升了38%。这种同步提升表明强化学习过程不仅提高了模型在分布内任务上的表现,还促进了强大且可迁移的推理策略的涌现。


这一发现的意义深远:它表明在"骑士与骗子"谜题上学到的推理技能远超特定数据集的模式,而是能够泛化到数学这一全新领域。这凸显了强化学习在培养真正泛化能力方面的潜力,为AI产品开发者提供了培养更加通用智能系统的新思路。


关键启示:重新定义LLM训练

语言混合与复杂思考标记的影响


研究分析了模型回答中包含特定标记(如"verify"、"re-evaluate"等)的奖励情况,发现包含"verify"和"re-evaluate"的回答得分显著高于不包含这些词的回答。相反,包含其他语言标记的回答通常获得较低分数。


这些观察结果揭示了几个重要启示:首先,语言混合显著降低推理能力;其次,虽然"wait"、"verify"、"yet"和"re-evaluate"等术语显示出显著改善,但并非所有复杂思考标记都能增强推理能力,例如"recheck";第三,复杂推理行为"recheck"明显降低推理能力,可能是因为其使用表明模型对答案不确定;第四,"re-evaluate"和"reevaluate"之间存在明显差异:前者导致更高的答案分数,而后者降低分数。研究发现"reevaluate"几乎从未出现,而"re-evaluate"经常出现,这可能表明模型更喜欢使用在预训练语料中更常见的词。


这些发现对AI产品开发者具有直接启示:在设计提示或训练战略时,应该鼓励模型使用某些有助于推理的特定术语,同时避免语言混合。此外,模型对词汇的选择可能比预期更为敏感,突显了词语选择在优化模型推理能力方面的重要性。


强化学习vs监督微调:谁更能泛化?


Logic-RL研究的核心问题之一是:后训练方法是否能够实现超出表面对齐的效果,而不仅仅是学习格式模式?监督微调(SFT)或强化学习(RL)是否能够真正学会学习,有效地泛化到其他领域?

研究者调查了模型是仅仅记忆训练数据还是真正学习推理技能。遵循[17]中的设置,他们通过比较模型在熟悉问题与略微改变问题上的表现来测试这一点。记忆的两个迹象是:在已见问题上准确率高,在略微扰动的版本上准确率低。


为了量化这一点,研究者引入了"局部不一致性记忆分数"(LiMem),捕捉模型的记忆和对变化的敏感性。如果模型在问题格式改变时表现显著下降,则可能没有学到解决类似但修改过的谜题所需的真正推理技能。


结果令人信服:SFT(拒绝采样微调)主要学习表面答案格式而非真正推理,略微提高测试准确率但伴随LiMem快速增加。相比之下,RL在微小或甚至负面增加LiMem的情况下实现更高的测试准确率。在相同LiMem区间内,RL在测试准确率上大大优于SFT,表明更强的泛化能力。


这一发现对AI产品开发有深远启示:如果目标是培养能真正泛化到新情境的模型,强化学习可能是优于传统监督微调的选择。这与[1]的发现一致,表明RL鼓励模型独立探索,培养源于增强推理能力的泛化能力。


对Agent开发的启示:从理论到实践

构建真正能推理的AI产品


Logic-RL研究对AI产品开发者和Agent工程师提供了丰富的见解,可指导开发更强大、更可靠的AI系统。以下是几个关键启示:


首先,强化学习证明是培养真正推理能力的有效途径。与传统方法相比,基于规则的强化学习使模型能够发展出超越训练数据的泛化能力。这表明Agent开发应考虑将强化学习整合到训练流程中,特别是当任务需要复杂推理时。


其次,明确分离思考和回答过程是提高推理质量的有效策略。通过鼓励模型明确其推理步骤,并在提供最终答案前验证这些步骤,可以显著提高准确率和可靠性。Agent工程师可以通过适当的提示结构和奖励机制来实现这一点。


第三,良好定义的奖励函数对于培养复杂推理能力至关重要。奖励不应仅基于答案正确性,还应考虑推理过程的质量和系统性。这种多维度奖励方法可以引导模型发展出更全面的问题解决策略。


此外,研究表明更长回应并不保证更好推理。在实际应用中,开发者应关注推理质量而非输出长度,并设计能够评估推理质量的指标,而非仅仅依赖响应长度。


最后,研究揭示了语言混合可能阻碍推理。Agent开发者应确保模型在推理过程中保持语言一致性,这可能需要在训练数据和提示设计中增加约束。


资源优化与实用考虑


除了推理能力本身,Logic-RL研究还提供了关于资源优化和实用考虑的宝贵见解。这些对于需要在有限资源条件下开发Agent的团队尤为重要。


首先,算法选择对训练效率和性能有显著影响。研究比较了GRPO、REINFORCE++和PPO,发现REINFORCE++在稳定性、性能和训练效率方面表现均衡。对于资源有限的团队,这可能是优先选择,而希望最大化性能的项目可能选择PPO,尽管训练时间更长。


其次,研究表明冷启动是额外的好处,而非必须。这意味着开发者可以从现有的指令微调模型开始,而不必从基础模型重新训练,这可以显著节省资源。实验中的Qwen2.5-7B-Instruct模型与其基础版本相比表现略好,表明预先进行指令微调可能有所帮助。


第三,研究发现课程学习可能不如预期重要。虽然课程学习在中间训练阶段产生略高的测试分数,但这种优势在实际意义上微不足道。对于资源有限的团队,直接采用混合难度训练可能更加实用,简化训练流程的同时保持性能。


此外,研究发现在某些情况下消除KL约束可能有益,特别是当从强基础模型开始时。此外,在训练初期引入更高温度似乎为模型提供了更多样化的起点。这些微调可以在不增加资源需求的情况下提高训练效果。


最后,链式思考(Chain-of-Thought)的长到短方法值得探索。尽管初始提示简洁明了,但经过强化学习训练后,回应长度可能扩展至四倍。为提高令牌效率并适应长上下文友好的训练范式,探索将长回应转换为更短、更易消化格式的方法可能特别有价值。


逻辑推理的未来


Logic-RL研究开创了一个令人兴奋的新方向,为增强大型语言模型的逻辑推理能力提供了有力方法。通过基于规则的强化学习和精心设计的训练环境,研究者成功培养了一个能够进行复杂推理、自我验证和系统性探索的模型。


研究的关键贡献在于证明了强化学习相比监督微调在培养真正推理能力方面的优势。通过促进模型独立探索和发现,强化学习使模型能够发展出超越训练数据的泛化能力,能够应用于全新领域的挑战性问题。


对于AI产品开发者和Agent工程师,Logic-RL提供了丰富的实用见解:从思考和回答过程的分离,到奖励函数的多维度设计,再到算法选择和资源优化的权衡。这些见解可以指导开发更强大、更可靠的AI系统,能够应对需要复杂推理的实际任务。



文章来自微信公众号 “  AI修猫Prompt “,作者  AI修猫Prompt


受R1启发,微软亚洲发布Logic-RL,帮助LLM通过RL解决

AITNT-国内领先的一站式人工智能新闻资讯网站
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
智能体

【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。

项目地址:https://github.com/Significant-Gravitas/AutoGPT


【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。

项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md

2
微调

【开源免费】XTuner 是一个高效、灵活、全能的轻量化大模型微调工具库。它帮助开发者提供一个简单易用的平台,可以对大语言模型(LLM)和多模态图文模型(VLM)进行预训练和轻量级微调。XTuner 支持多种微调算法,如 QLoRA、LoRA 和全量参数微调。

项目地址:https://github.com/InternLM/xtuner

3
prompt

【开源免费】LangGPT 是一个通过结构化和模板化的方法,编写高质量的AI提示词的开源项目。它可以让任何非专业的用户轻松创建高水平的提示词,进而高质量的帮助用户通过AI解决问题。

项目地址:https://github.com/langgptai/LangGPT/blob/main/README_zh.md

在线使用:https://kimi.moonshot.cn/kimiplus/conpg00t7lagbbsfqkq0