AI资讯新闻榜单内容搜索-模型微调

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 模型微调
大模型微调范式认知再被颠覆?UIUC、Amazon团队最新研究指出SFT灾难性遗忘问题或被误解

大模型微调范式认知再被颠覆?UIUC、Amazon团队最新研究指出SFT灾难性遗忘问题或被误解

大模型微调范式认知再被颠覆?UIUC、Amazon团队最新研究指出SFT灾难性遗忘问题或被误解

在大模型微调实践中,SFT(监督微调)几乎成为主流流程的一部分,被广泛应用于各类下游任务和专用场景。比如,在医疗领域,研究人员往往会用领域专属数据对大模型进行微调,从而显著提升模型在该领域特定任务上的表现。

来自主题: AI技术研报
6858 点击    2025-10-24 10:13
Murati翁荔陈丹琦公司发布首个产品,让大模型微调门槛暴降,要重新发明一个OpenAI

Murati翁荔陈丹琦公司发布首个产品,让大模型微调门槛暴降,要重新发明一个OpenAI

Murati翁荔陈丹琦公司发布首个产品,让大模型微调门槛暴降,要重新发明一个OpenAI

Thinking Machines Lab发布首个产品:Thinker,让模型微调变得像改Python代码一样简单。也算是终于摘掉了“0产品0收入估值840亿”的帽子。Tinker受到了业界的密切关注。AI基础设施公司Anyscale的CEO Robert Nishihara等beta测试者表示,尽管市面上有其他微调工具,但Tinker在“抽象化和可调性之间取得了卓越的平衡”

来自主题: AI资讯
9108 点击    2025-10-03 11:53
同时监督和强化的单阶段大模型微调,告别“先背书再刷题”,推理泛化双提升|中科院&美团等

同时监督和强化的单阶段大模型微调,告别“先背书再刷题”,推理泛化双提升|中科院&美团等

同时监督和强化的单阶段大模型微调,告别“先背书再刷题”,推理泛化双提升|中科院&美团等

通过单阶段监督微调与强化微调结合,让大模型在训练时能同时利用专家演示和自我探索试错,有效提升大模型推理性能。

来自主题: AI技术研报
6965 点击    2025-07-02 15:35
策略改写「一战历史」!中科院开源全新博弈智能体框架DipLLM

策略改写「一战历史」!中科院开源全新博弈智能体框架DipLLM

策略改写「一战历史」!中科院开源全新博弈智能体框架DipLLM

中科院自动化所提出DipLLM,这是首个在复杂策略游戏Diplomacy中基于大语言模型微调的智能体框架,仅用Cicero 1.5%的训练数据就实现超越

来自主题: AI资讯
8031 点击    2025-07-01 15:30
3步轻松微调Qwen3,本地电脑就能搞,这个方案可以封神了!【喂饭级教程】

3步轻松微调Qwen3,本地电脑就能搞,这个方案可以封神了!【喂饭级教程】

3步轻松微调Qwen3,本地电脑就能搞,这个方案可以封神了!【喂饭级教程】

大家好,我是袋鼠帝 今天给大家带来的是一个带WebUI,无需代码的超简单的本地大模型微调方案(界面操作),实测微调之后的效果也是非常不错。

来自主题: AI技术研报
8535 点击    2025-05-27 13:38
万字解读OpenAI产品哲学:先发布再迭代、不要低估模型微调和评估

万字解读OpenAI产品哲学:先发布再迭代、不要低估模型微调和评估

万字解读OpenAI产品哲学:先发布再迭代、不要低估模型微调和评估

今天凌晨,OpenAI 发布了新模型 GPT-4.1,相对比 4o,GPT-4.1 在编程和指令遵循方面的能力显著提升,同时还宣布 GPT-4.5 将会在几个月后下线。不少人吐槽 OpenAI 让人迷惑的产品发布逻辑——GPT-4.1 晚于 4.5 发布,以及混乱的模型命名,这些问题,都能在 OpenAI CPO Kevin Weil 最近的一期播客访谈中得到解答。

来自主题: AI资讯
8750 点击    2025-04-16 09:37
扩散模型奖励微调新突破:Nabla-GFlowNet让多样性与效率兼得

扩散模型奖励微调新突破:Nabla-GFlowNet让多样性与效率兼得

扩散模型奖励微调新突破:Nabla-GFlowNet让多样性与效率兼得

本文作者刘圳是香港中文大学(深圳)数据科学学院的助理教授,肖镇中是德国马克思普朗克-智能系统研究所和图宾根大学的博士生,刘威杨是德国马克思普朗克-智能系统研究所的研究员,Yoshua Bengio 是蒙特利尔大学和加拿大 Mila 研究所的教授,张鼎怀是微软研究院的研究员。此论文已收录于 ICLR 2025。

来自主题: AI技术研报
7717 点击    2025-04-13 15:49
缺钱缺数据时的大模型微调方法汇总

缺钱缺数据时的大模型微调方法汇总

缺钱缺数据时的大模型微调方法汇总

别说什么“没数据就去标注啊,没钱标注就别做大模型啊”这种风凉话,有些人数据不足也能做大模型,是因为有野心,就能想出来稀缺数据场景下的大模型解决方案,或者整理出本文将要介绍的 "Practical Guide to Fine-tuning with Limited Data" 这样的综述。

来自主题: AI资讯
9875 点击    2024-12-09 09:30