
摘要
我们提出了一种新颖的架构——“堆叠式‘是什么-在哪里’自编码器”(Stacked What-Where Auto-Encoders, SWWAE),该架构集成了判别路径和生成路径,提供了一种统一的方法来实现监督学习、半监督学习和无监督学习,而无需在训练过程中依赖采样。SWWAE的一个实例使用卷积神经网络(Convnet)(LeCun等人,1998年)对输入进行编码,并采用反卷积神经网络(Deconvnet)(Zeiler等人,2010年)生成重构。目标函数包括重构项,这些项促使反卷积神经网络中的隐藏状态与卷积神经网络中的隐藏状态相似。每个池化层产生两组变量:“是什么”变量被传递到下一层,而其互补变量“在哪里”则被传递到生成解码器中对应的层。
代码仓库
zhangqinghao0811/unpool
tf
GitHub 中提及
isaacgerg/keras_odds_and_ends
tf
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| image-classification-on-cifar-10 | SWWAE | Percentage correct: 92.2 |
| image-classification-on-cifar-100 | SWWAE | Percentage correct: 69.1 |
| image-classification-on-mnist | Zhao et al. (2015) (auto-encoder) | Percentage error: 4.76 |
| image-classification-on-stl-10 | SWWAE | Percentage correct: 74.3 |
| semi-supervised-image-classification-on-stl-1 | SWWAE | Accuracy: 74.30 |