3 个月前

低秩适配中的子空间混合

低秩适配中的子空间混合

摘要

本文提出了一种受子空间启发的低秩适配(Low-Rank Adaptation, LoRA)方法,该方法计算高效、实现简便,且可直接应用于大型语言模型、多模态模型以及扩散模型。我们首先将LoRA的权重等价地分解为两个子空间,并发现简单地对这两个子空间进行混合即可提升模型性能。为进一步探究这一现象,我们通过细粒度的子空间视角重新审视该过程,发现此类操作等价于采用一个固定的混合器(mixer)对子空间进行融合。为进一步增强灵活性,我们联合学习该混合器与原始LoRA权重,提出一种新的方法——子空间混合LoRA(Mixture-of-Subspaces LoRA, MoSLoRA)。实验结果表明,MoSLoRA在多种模态的任务中均持续优于标准LoRA,涵盖常识推理、视觉指令微调以及基于主题驱动的文本到图像生成任务,充分验证了其有效性与鲁棒性。相关代码已开源,地址为:https://github.com/wutaiqiang/MoSLoRA{github}。

代码仓库

wutaiqiang/moslora
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
common-sense-reasoning-on-arc-challengeLLaMA 3 8B + MoSLoRA (fine-tuned)
Accuracy: 81.5
common-sense-reasoning-on-arc-easyLLaMA 3 8B+MoSLoRA (fine-tuned)
Accuracy: 90.5
common-sense-reasoning-on-winograndeLLaMA3 8B+MoSLoRA
Accuracy: 85.8
question-answering-on-boolqLLaMA3+MoSLoRA
Accuracy: 74.6
question-answering-on-openbookqaLLaMA-3 8B+MoSLoRA
Accuracy: 86.8
question-answering-on-piqaLLaMA3 8B+MoSLoRA
Accuracy: 89.7
question-answering-on-social-iqaLLaMA-3 8B+MoSLoRA (fine-tuned)
Accuracy: 81.0
visual-question-answering-on-mm-vetInternLM2+ViT (QMoSLoRA)
GPT-4 score: 35.2
visual-question-answering-on-mm-vetLLaVA-InternLM2-7B-ViT + MoSLoRA
GPT-4 score: 35.2
visual-question-answering-on-mmbenchLLaVA-InternLM2-ViT + MoSLoRA
GPT-3.5 score: 73.8
visual-question-answering-on-mmbenchLLaVA-LLaMA3-8B-ViT + MoSLoRA
GPT-3.5 score: 73.0

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
低秩适配中的子空间混合 | 论文 | HyperAI超神经