
摘要
本文提出了一种受子空间启发的低秩适配(Low-Rank Adaptation, LoRA)方法,该方法计算高效、实现简便,且可直接应用于大型语言模型、多模态模型以及扩散模型。我们首先将LoRA的权重等价地分解为两个子空间,并发现简单地对这两个子空间进行混合即可提升模型性能。为进一步探究这一现象,我们通过细粒度的子空间视角重新审视该过程,发现此类操作等价于采用一个固定的混合器(mixer)对子空间进行融合。为进一步增强灵活性,我们联合学习该混合器与原始LoRA权重,提出一种新的方法——子空间混合LoRA(Mixture-of-Subspaces LoRA, MoSLoRA)。实验结果表明,MoSLoRA在多种模态的任务中均持续优于标准LoRA,涵盖常识推理、视觉指令微调以及基于主题驱动的文本到图像生成任务,充分验证了其有效性与鲁棒性。相关代码已开源,地址为:https://github.com/wutaiqiang/MoSLoRA{github}。
代码仓库
wutaiqiang/moslora
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| common-sense-reasoning-on-arc-challenge | LLaMA 3 8B + MoSLoRA (fine-tuned) | Accuracy: 81.5 |
| common-sense-reasoning-on-arc-easy | LLaMA 3 8B+MoSLoRA (fine-tuned) | Accuracy: 90.5 |
| common-sense-reasoning-on-winogrande | LLaMA3 8B+MoSLoRA | Accuracy: 85.8 |
| question-answering-on-boolq | LLaMA3+MoSLoRA | Accuracy: 74.6 |
| question-answering-on-openbookqa | LLaMA-3 8B+MoSLoRA | Accuracy: 86.8 |
| question-answering-on-piqa | LLaMA3 8B+MoSLoRA | Accuracy: 89.7 |
| question-answering-on-social-iqa | LLaMA-3 8B+MoSLoRA (fine-tuned) | Accuracy: 81.0 |
| visual-question-answering-on-mm-vet | InternLM2+ViT (QMoSLoRA) | GPT-4 score: 35.2 |
| visual-question-answering-on-mm-vet | LLaVA-InternLM2-7B-ViT + MoSLoRA | GPT-4 score: 35.2 |
| visual-question-answering-on-mmbench | LLaVA-InternLM2-ViT + MoSLoRA | GPT-3.5 score: 73.8 |
| visual-question-answering-on-mmbench | LLaVA-LLaMA3-8B-ViT + MoSLoRA | GPT-3.5 score: 73.0 |