4 个月前

通过连续稀疏化赢得彩票奖

通过连续稀疏化赢得彩票奖

摘要

对于高效、稀疏的深度神经网络模型的探索,最显著的方法是剪枝:先训练一个密集且过度参数化的网络,然后移除参数,通常通过遵循手工设计的启发式规则来实现。此外,最近提出的彩票假设(Lottery Ticket Hypothesis)推测,对于一个典型规模的神经网络,可以找到一些小型子网络,这些子网络在从头开始训练时,只需相当的计算资源就能达到与原始密集网络相同的性能。我们重新审视了剪枝算法的基本方面,指出了先前方法中缺失的关键成分,并开发了一种基于新型不可行 $\ell_0$ 正则化近似的方法——连续稀疏化(Continuous Sparsification),用于搜索稀疏网络。我们将该方法与主流的启发式剪枝方法进行了对比,不仅在剪枝方面进行了比较,还在寻找可以从早期迭代成功重新训练的稀疏子网络方面进行了测试。实验结果表明,我们在两个目标上均超越了现有最佳方法,在多种模型和数据集上的表现尤为突出,包括在CIFAR-10上训练的VGG和在ImageNet上训练的ResNet-50。除了为剪枝设定新的标准外,连续稀疏化还提供了快速并行的彩票搜索功能,为彩票假设的应用开辟了新的途径。

代码仓库

lolemacs/continuous-sparsification
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
network-pruning-on-imagenet-resnet-50-90CS
Top-1 Accuracy: 75.5

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
通过连续稀疏化赢得彩票奖 | 论文 | HyperAI超神经