3 个月前

稀疏脉冲梯度下降

稀疏脉冲梯度下降

摘要

由于脉冲神经网络(Spiking Neural Networks, SNNs)具备极低的能耗特性,近年来在类脑计算设备上模拟SNNs的研究兴趣日益增长。近期进展使得SNNs的训练性能已达到可与传统人工神经网络(Artificial Neural Networks, ANNs)在精度上相媲美的水平,同时在类脑硬件上运行时仍保持显著的能效优势。然而,当前SNN的训练过程仍依赖于为ANN设计的密集张量运算,未能充分利用SNN在时空上的稀疏特性。本文首次提出一种稀疏的SNN反向传播算法,在保持或超越现有最先进方法精度的同时,显著提升了计算速度并大幅降低了内存消耗。我们在多个复杂度不同的真实数据集(包括Fashion-MNIST、Neuromorphic-MNIST和Spiking Heidelberg Digits)上验证了该方法的有效性,结果显示反向传播阶段的加速比最高可达150倍,内存效率提升达85%,且未牺牲任何精度。

代码仓库

npvoid/SparseSpikingBackprop
pytorch
GitHub 中提及

基准测试

基准方法指标
audio-classification-on-shdSparse Spiking Gradient Descent
Percentage correct: 77.5
image-classification-on-fashion-mnistSparse Spiking Gradient Descent (MLP)
Accuracy: 82.7
image-classification-on-fashion-mnistSparse Spiking Gradient Descent (CNN)
Accuracy: 86.7
image-classification-on-n-mnistSparse Spiking Gradient Descent
Accuracy: 92.7

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
稀疏脉冲梯度下降 | 论文 | HyperAI超神经