
摘要
卷积网络是强大的视觉模型,能够生成特征层次结构。我们展示了仅通过端到端训练的卷积网络,从像素到像素的映射,在语义分割方面超过了现有最佳方法。我们的关键洞察是构建“全卷积”网络,该网络可以接受任意大小的输入,并高效地进行推理和学习,生成相应大小的输出。我们定义并详细描述了全卷积网络的空间,解释了它们在空间密集预测任务中的应用,并探讨了与先前模型的联系。我们将当代分类网络(如 AlexNet、VGG 网络和 GoogLeNet)转换为全卷积网络,并通过微调将这些网络学到的表示迁移到分割任务中。随后,我们设计了一种新颖的架构,该架构结合了来自深层、粗略层的语义信息和来自浅层、精细层的外观信息,以生成准确且详细的分割结果。我们的全卷积网络在 PASCAL VOC(2012 年数据集上相对提高了 20%,达到 62.2% 的平均交并比)、NYUDv2 和 SIFT Flow 数据集上的分割性能达到了现有最佳水平,而对典型图像进行推理仅需三分之一秒。
代码仓库
giovanniguidi/FCN-keras
GitHub 中提及
muramasa8191/DeepLearning
tf
GitHub 中提及
shenshutao/image_segmentation
tf
GitHub 中提及
kbardool/mrcnn3
tf
GitHub 中提及
pessimiss/ai100-w9-master
tf
GitHub 中提及
Jackey9797/FCN
mindspore
sigtot/unet-auto
pytorch
GitHub 中提及
andyzeng/apc-vision-toolbox
GitHub 中提及
TianchengQ/FCN
tf
GitHub 中提及
jqueguiner/image-segmentation
GitHub 中提及
YigeunLee/fcn32
tf
GitHub 中提及
fxfviolet/FCN_for_segmantic_segmentation
tf
GitHub 中提及
zhuyi55/week10
tf
GitHub 中提及
DLWK/EANet
pytorch
GitHub 中提及
anoushkrit/Knowledge
pytorch
GitHub 中提及
githubfa/FCN
tf
GitHub 中提及
stoensin/w10-cnn-SegmentationClass
tf
GitHub 中提及
tsixta/jnet
pytorch
GitHub 中提及
guilhermesantos/Semantic-Image-Segmentation
pytorch
GitHub 中提及
SDMrFeng/quiz-w10-fcn
tf
GitHub 中提及
minoring/fcn
tf
GitHub 中提及
hitukensinn/quiz-w9-code
tf
GitHub 中提及
SophiaYuSophiaYu/FCN_SemanticSegmentation
tf
GitHub 中提及
lanthlove/segmentation-fcn
tf
GitHub 中提及
azraelzhor/tf-FCN
tf
GitHub 中提及
hz-ants/apc-vision-toolbox
GitHub 中提及
martinkersner/py_img_seg_eval
GitHub 中提及
LeeMax117/week10_homework
tf
GitHub 中提及
robromijnders/segm
tf
GitHub 中提及
koryako/AI-application
tf
GitHub 中提及
LeeMax117/FCN_8s
tf
GitHub 中提及
RogerQi/pascal-5i
pytorch
GitHub 中提及
colorfulxd/WK10_FCN
tf
GitHub 中提及
jqueguiner/camembert-as-a-service
pytorch
GitHub 中提及
pochih/fcn-pytorch
pytorch
GitHub 中提及
inder9999/ISIC2017_skin_lesion_segmentation
pytorch
GitHub 中提及
faroukmokhtar/ImageSegmentationPASCAL
GitHub 中提及
sunnynevarekar/FCN
tf
GitHub 中提及
frank-roesler/Image_Segmentation
pytorch
GitHub 中提及
alvinwen428/featurecp
pytorch
GitHub 中提及
hahahappyboy/GANForCartoon
pytorch
GitHub 中提及
SethEBaldwin/FCN
tf
GitHub 中提及
demul/image_segmentation_project
tf
GitHub 中提及
GodPater/model_fcn
tf
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| crack-segmentation-on-crackvision12k | FCN | mIoU: 0.59842 |
| multi-tissue-nucleus-segmentation-on-kumar | FCN8 (e) | Dice: 0.797 Hausdorff Distance (mm): 31.2 |
| multispectral-object-detection-on-kaist | FusionRPN+BF | All Miss Rate: 51.70 |
| semantic-segmentation-on-ade20k | FCN | Validation mIoU: 29.39 |
| semantic-segmentation-on-coco-stuff-test | FCN (VGG-16) | mIoU: 22.7% |
| semantic-segmentation-on-event-based | FCN | mIoU: 59.6 |
| semantic-segmentation-on-pascal-context | FCN-8s | mIoU: 37.8 |
| semantic-segmentation-on-pascal-voc-2012 | FCN (VGG-16) | Mean IoU: 62.2% |
| semantic-segmentation-on-selma | FCN | mIoU: 68.2 |
| semantic-segmentation-on-skyscapes-dense-1 | FCN8s (ResNet-50) | Mean IoU: 33.06 |
| semantic-segmentation-on-skyscapes-lane-1 | FCN8s (ResNet-50) | Mean IoU: 13.74 |
| semantic-segmentation-on-trans10k | FCN | GFLOPs: 42.23 mIoU: 62.75% |