
ICML 2024 | 脱离LoRA架构,训练参数大幅减少,新型傅立叶微调来了
ICML 2024 | 脱离LoRA架构,训练参数大幅减少,新型傅立叶微调来了本文介绍了香港科技大学(广州)的一篇关于大模型高效微调(LLM PEFT Fine-tuning)的文章「Parameter-Efficient Fine-Tuning with Discrete Fourier Transform」
来自主题: AI技术研报
9833 点击 2024-05-26 13:50
本文介绍了香港科技大学(广州)的一篇关于大模型高效微调(LLM PEFT Fine-tuning)的文章「Parameter-Efficient Fine-Tuning with Discrete Fourier Transform」
在大型语言模型的训练过程中,数据的处理方式至关重要。
大模型带来的生命科学领域突破,刚刚再传新进展。