3 个月前

神经网络压缩与正则化的量化与剪枝

神经网络压缩与正则化的量化与剪枝

摘要

深度神经网络通常在消费级硬件和低功耗设备上实时运行时计算开销过大。本文研究通过网络剪枝(network pruning)与量化(quantisation)技术降低神经网络的计算与内存需求。我们对比了这些方法在大型网络(如AlexNet)与近期轻量级架构(ShuffleNet和MobileNet)上的有效性。实验结果表明,剪枝与量化可将这些网络压缩至原始大小的一半以下,并显著提升运行效率,尤其在MobileNet上实现了高达7倍的加速。此外,我们还证明,剪枝不仅能够减少网络参数数量,还能有效缓解过拟合问题。

基准测试

基准方法指标
network-pruning-on-cifar-10MobileNet – Quantised
Inference Time (ms): 4.74
network-pruning-on-cifar-10ShuffleNet – Quantised
Inference Time (ms): 23.15
network-pruning-on-cifar-10AlexNet – Quantised
Inference Time (ms): 5.23
neural-network-compression-on-cifar-10MobileNet – Quantised
Size (MB): 2.9
neural-network-compression-on-cifar-10AlexNet – Quantised
Size (MB): 54.6
neural-network-compression-on-cifar-10ShuffleNet – Quantised
Size (MB): 1.9

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
神经网络压缩与正则化的量化与剪枝 | 论文 | HyperAI超神经