
摘要
我们对卷积神经网络中的Inception模块进行了解释,认为它们是在常规卷积和深度可分离卷积操作(先进行深度卷积,再进行逐点卷积)之间的中间步骤。在这种视角下,深度可分离卷积可以被理解为具有最大数量塔的Inception模块。基于这一观察,我们提出了一种受Inception启发的新颖深度卷积神经网络架构,其中Inception模块已被深度可分离卷积所替代。我们展示了这种架构,称为Xception,在ImageNet数据集上(该数据集是Inception V3的设计目标)的表现略优于Inception V3,并且在一个包含3.5亿张图像和17,000个类别的更大图像分类数据集上的表现显著优于Inception V3。由于Xception架构与Inception V3具有相同数量的参数,性能提升并非由于模型容量的增加,而是因为更高效地利用了模型参数。
代码仓库
universvm/BacXeption
GitHub 中提及
dbensoussan/rsna
pytorch
GitHub 中提及
andreacos/gan-generated-face-detection
tf
GitHub 中提及
amogh7joshi/engagement-detection
tf
GitHub 中提及
rwightman/pytorch-image-models
pytorch
GitHub 中提及
drscotthawley/SPNet
tf
GitHub 中提及
i3p9/deepfake-detection-with-xception
pytorch
GitHub 中提及
bluejurand/Photos-colorization
tf
GitHub 中提及
PaddlePaddle/PaddleClas
paddle
hikapok/xception_tensorflow
tf
GitHub 中提及
TanyaChutani/Xception-Tf2.0
tf
GitHub 中提及
kwotsin/TensorFlow-Xception
tf
GitHub 中提及
pra-dan/Worth-Reading-ML-Papers
GitHub 中提及
markloyman/LungNoduleRetrieval
GitHub 中提及
tensorflow/models
tf
GitHub 中提及
marload/ConvNets-TensorFlow2
tf
GitHub 中提及
IMvision12/keras-vision-models
pytorch
GitHub 中提及
krishnakarthi/COVID-19_Prediction
tf
GitHub 中提及
LouisFoucard/w-net
GitHub 中提及
Mind23-2/MindCode-122
mindspore
osmr/imgclsmob
mxnet
GitHub 中提及
2023-MindSpore-1/ms-code-205
mindspore
GitHub 中提及
tanreinama/XceptionHourgrass---PyTorch
pytorch
GitHub 中提及
DarshanDeshpande/jax-models
jax
GitHub 中提及
Candice-X/w-net-for-image-segmentation
GitHub 中提及
gina-santana/American_Sign_Language
tf
GitHub 中提及
Yohei-Kawakami/Bouquet
GitHub 中提及
CharlieSergeant/pollen
GitHub 中提及
tensorflow/models/tree/master/research/deeplab
tf
GitHub 中提及
amogh7joshi/fer
tf
GitHub 中提及
zotrick/Pneumonia_classification_Xception
tf
GitHub 中提及
ced-kin/dog-breed-ai
tf
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| classification-on-indl | Xception | Average Recall: 89.81% |
| image-classification-on-imagenet | Xception | Hardware Burden: 87G Number of params: 22.855952M Operations per network pass: 0.838G Top 1 Accuracy: 79% |