Hai Victor HabiReuven PeretzElad CohenLior DiksteinOranit DrorIdit DiamantRoy H. JenningsArnon Netzer

摘要
神经网络量化技术使得模型能够在边缘设备上部署成为可能。实现硬件高效性的关键要求在于量化器需具备硬件友好性:即采用均匀分布、对称分布,并具有2的幂次阈值。据我们所知,当前的后训练量化方法尚无法同时满足上述所有约束条件。在本研究中,我们提出了一种硬件友好的后训练量化(Hardware-friendly Post-training Quantization, HPTQ)框架,通过协同结合多种已知的量化方法,有效解决了这一问题。我们在四种典型任务——分类、目标检测、语义分割和姿态估计——上,针对多种网络架构进行了大规模实验研究。大量实验结果表明,在满足硬件友好性约束的前提下,该方法仍能取得具有竞争力的性能表现。
代码仓库
sony/model_optimization
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| quantization-on-coco | SSD ResNet50 V1 FPN 640x640 | MAP: 34.3 |
| quantization-on-imagenet | DenseNet-121 W8A8 | Activation bits: 8 Top-1 Accuracy (%): 73.356 Weight bits: 8 |
| quantization-on-imagenet | MobileNetV2 W8A8 | Activation bits: 8 Top-1 Accuracy (%): 71.46 Weight bits: 8 |
| quantization-on-imagenet | EfficientNet-B0 W8A8 | Activation bits: 8 Top-1 Accuracy (%): 74.216 Weight bits: 8 |
| quantization-on-imagenet | EfficientNet-B0 ReLU W8A8 | Activation bits: 8 Top-1 Accuracy (%): 77.092 Weight bits: 8 |
| quantization-on-imagenet | Xception W8A8 | Activation bits: 8 Top-1 Accuracy (%): 78.972 Weight bits: 8 |