3 个月前

GIFT-SW:面向LLM的显著权重高斯噪声注入微调

GIFT-SW:面向LLM的显著权重高斯噪声注入微调

摘要

参数高效微调(Parameter Efficient Fine-Tuning, PEFT)方法近年来广受关注,推动了大规模语言模型(Large Language Models, LLMs)的普及与应用。近期研究发现,仅一小部分模型权重对性能具有显著影响。基于这一观察,本文提出一种新型PEFT方法——显著权重高斯噪声注入微调(Gaussian noise Injected Fine Tuning of Salient Weights, GIFT-SW)。该方法仅更新显著权重列,同时向非显著权重列注入高斯噪声。为准确识别这些显著列,我们设计了一种广义敏感性度量指标,该指标在形式上扩展并统一了先前研究中的多种敏感性评估方法。在LLaMA系列模型上的实验结果表明,在相同计算预算下,GIFT-SW在性能上优于全量微调以及当前主流的PEFT方法。此外,GIFT-SW在实际应用中展现出显著优势:在模型经过混合精度量化后,通过将显著权重保持在高精度(全精度)状态,可有效恢复模型性能。

代码仓库

On-Point-RND/GIFT_SW
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
parameter-efficient-fine-tuning-on-boolqLLaMA2-7b
Accuracy (% ): 82.63
parameter-efficient-fine-tuning-on-hellaswagLLaMA2-7b
Accuracy (% ): 76.68
parameter-efficient-fine-tuning-on-winograndeLLaMA2-7b
Accuracy (% ): 70.80

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
GIFT-SW:面向LLM的显著权重高斯噪声注入微调 | 论文 | HyperAI超神经