3 个月前

通过神经再生增强剪枝可塑性实现稀疏训练

通过神经再生增强剪枝可塑性实现稀疏训练

摘要

近期,关于彩票效应假设(Lottery Ticket Hypothesis, LTH)以及单次剪枝(Single-Shot Network Pruning, SNIP)的研究引发了学术界对训练后剪枝(迭代幅度剪枝)与训练前剪枝(初始化阶段剪枝)的广泛关注。然而,前者通常面临极高的计算开销,而后者则往往难以达到理想的性能表现。相比之下,训练中剪枝(during-training pruning)这一类方法在保持训练与推理效率的同时,能够实现与现有方法相当的性能,因而目前仍鲜有深入探索。为更深入理解训练中剪枝机制,本文从“剪枝可塑性”(pruning plasticity)的角度出发,对整个训练过程中剪枝的影响进行了定量分析。剪枝可塑性指剪枝后网络恢复原始性能的能力,该概念有助于解释文献中关于神经网络剪枝的多个经验性现象。进一步研究发现,通过引入一种受大脑启发的机制——神经再生(neuroregeneration),即在剪枝后重建与被剪枝数量相同的连接,可显著提升剪枝可塑性。基于此,我们提出一种新型渐进式幅度剪枝方法——零代价神经再生渐进剪枝(Gradual Pruning with Zero-Cost Neuroregeneration, \textbf{GraNet}),该方法在性能上达到当前最优水平。尤为突出的是,GraNet 的稀疏到稀疏(sparse-to-sparse)版本首次在不增加训练时间的前提下,实现了在 ImageNet 数据集上基于 ResNet-50 的稀疏到稀疏训练性能超越多种密集到稀疏(dense-to-sparse)方法的突破。相关代码已开源,地址为:https://github.com/Shiweiliuiiiiiii/GraNet。

代码仓库

vita-group/granet
pytorch
GitHub 中提及
Shiweiliuiiiiiii/GraNet
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
sparse-learning-on-imagenetResnet-50: 90% Sparse 100 epochs
Top-1 Accuracy: 74.5
sparse-learning-on-imagenetResnet-50: 80% Sparse 100 epochs
Top-1 Accuracy: 76

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
通过神经再生增强剪枝可塑性实现稀疏训练 | 论文 | HyperAI超神经