# 热门搜索 #
搜索
搜索: LoRA
LoRA综述来了! 浙大《大语言模型的LoRA研究》综述

低秩适应(Low-Rank Adaptation,LoRA)通过可插拔的低秩矩阵更新密集神经网络层,是当前参数高效微调范式中表现最佳的方法之一。此外,它在跨任务泛化和隐私保护方面具有显著优势。

来自主题: AI技术研报
9156 点击    2024-07-21 14:02
改变LoRA的初始化方式,北大新方法PiSSA显著提升微调效果

随着大模型的参数量日益增长,微调整个模型的开销逐渐变得难以接受。 为此,北京大学的研究团队提出了一种名为 PiSSA 的参数高效微调方法,在主流数据集上都超过了目前广泛使用的 LoRA 的微调效果。

来自主题: AI技术研报
9261 点击    2024-04-13 16:50