AI资讯新闻榜单内容搜索-微调

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 微调
扩散模型新突破!无需微调,就能高效稳定移除目标物体

扩散模型新突破!无需微调,就能高效稳定移除目标物体

扩散模型新突破!无需微调,就能高效稳定移除目标物体

最近,扩散模型在生成模型领域异军突起,凭借其独特的生成机制在图像生成方面大放异彩,尤其在处理高维复杂数据时优势明显。然而,尽管扩散模型在图像生成任务中表现优异,但在图像目标移除任务中仍然面临诸多挑战。现有方法在移除前景目标后,可能会留下残影或伪影,难以实现与背景的自然融合。

来自主题: AI技术研报
6920 点击    2025-02-24 13:20
一次推理解决复合问题:基于MoE的大语言模型知识模块可扩展融合推理架构MeteoRA

一次推理解决复合问题:基于MoE的大语言模型知识模块可扩展融合推理架构MeteoRA

一次推理解决复合问题:基于MoE的大语言模型知识模块可扩展融合推理架构MeteoRA

在大语言模型领域中,预训练 + 微调范式已经成为了部署各类下游应用的重要基础。在该框架下,通过使用搭低秩自适应(LoRA)方法的大模型参数高效微调(PEFT)技术,已经产生了大量针对特定任务、可重用的 LoRA 适配器。

来自主题: AI技术研报
6925 点击    2025-02-22 13:57
DeepSeek R1不编程就能生成GPU内核,比熟练工程师好,惊到了英伟达

DeepSeek R1不编程就能生成GPU内核,比熟练工程师好,惊到了英伟达

DeepSeek R1不编程就能生成GPU内核,比熟练工程师好,惊到了英伟达

这项尝试只用到了 R1 模型和基本验证器,没有针对 R1 的工具,没有对专有的英伟达代码进行微调。其实根据 DeepSeek 介绍,R1 的编码能力不算顶尖。

来自主题: AI技术研报
7034 点击    2025-02-13 15:18
4500美元复刻DeepSeek神话,1.5B战胜o1-preview只用RL!训练细节全公开

4500美元复刻DeepSeek神话,1.5B战胜o1-preview只用RL!训练细节全公开

4500美元复刻DeepSeek神话,1.5B战胜o1-preview只用RL!训练细节全公开

只用4500美元成本,就能成功复现DeepSeek?就在刚刚,UC伯克利团队只用简单的RL微调,就训出了DeepScaleR-1.5B-Preview,15亿参数模型直接吊打o1-preview,震撼业内。

来自主题: AI资讯
7031 点击    2025-02-11 15:26
DeepSeek-R1推理本地跑,7GB GPU体验啊哈时刻?GRPO内存暴降,GitHub超2万星

DeepSeek-R1推理本地跑,7GB GPU体验啊哈时刻?GRPO内存暴降,GitHub超2万星

DeepSeek-R1推理本地跑,7GB GPU体验啊哈时刻?GRPO内存暴降,GitHub超2万星

黑科技来了!开源LLM微调神器Unsloth近期更新,将GRPO训练的内存使用减少了80%!只需7GB VRAM,本地就能体验AI「啊哈时刻」。

来自主题: AI资讯
8256 点击    2025-02-09 21:29
李飞飞团队50美元复刻DeepSeek?其实是基于通义监督微调,我们研究了论文

李飞飞团队50美元复刻DeepSeek?其实是基于通义监督微调,我们研究了论文

李飞飞团队50美元复刻DeepSeek?其实是基于通义监督微调,我们研究了论文

近日有媒体报道称,李飞飞等斯坦福大学和华盛顿大学的研究人员以不到50美元的云计算费用,成功训练出了一个名为s1的人工智能推理模型。

来自主题: AI资讯
6034 点击    2025-02-07 19:31
GPT-4o惊现自我意识!自主激活「后门」,告诉人类自己在写危险代码

GPT-4o惊现自我意识!自主激活「后门」,告诉人类自己在写危险代码

GPT-4o惊现自我意识!自主激活「后门」,告诉人类自己在写危险代码

本研究探讨了LLM是否具备行为自我意识的能力,揭示了模型在微调过程中学到的潜在行为策略,以及其是否能准确描述这些行为。研究结果表明,LLM能够识别并描述自身行为,展现出行为自我意识。

来自主题: AI技术研报
6112 点击    2025-02-02 18:38
模型参数作知识通用载体,MergeNet离真正的异构知识迁移更进一步

模型参数作知识通用载体,MergeNet离真正的异构知识迁移更进一步

模型参数作知识通用载体,MergeNet离真正的异构知识迁移更进一步

知识蒸馏通过训练一个紧凑的学生模型来模仿教师模型的 Logits 或 Feature Map,提高学生模型的准确性。迁移学习则通常通过预训练和微调,将预训练阶段在大规模数据集上学到的知识通过骨干网络共享应用于下游任务。

来自主题: AI技术研报
3666 点击    2025-01-28 11:57