
摘要
大多数最先进的场景文本检测算法都是基于深度学习的方法,依赖于边界框回归,并至少进行两种预测:文本/非文本分类和位置回归。在这些方法中,回归在获取边界框方面起着关键作用,但并非不可或缺,因为文本/非文本预测也可以被视为一种包含完整位置信息的语义分割。然而,场景图像中的文本实例通常非常接近,使得通过语义分割很难将它们分开。因此,需要实例分割来解决这一问题。本文提出了一种基于实例分割的新型场景文本检测算法——PixelLink。该算法首先通过连接同一实例内的像素来分割出文本实例,然后直接从分割结果中提取文本边界框,而无需进行位置回归。实验表明,与基于回归的方法相比,PixelLink在多个基准测试中可以实现更好的或相当的性能,同时需要更少的训练迭代次数和更少的训练数据。
代码仓库
Autonise-AI/Text-Recognition
pytorch
GitHub 中提及
dengdan/seglink
tf
GitHub 中提及
ZJULearning/pixel_link
tf
GitHub 中提及
mayank-git-hub/Text-Recognition
pytorch
GitHub 中提及
opconty/pixellink_keras
tf
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| scene-text-detection-on-icdar-2013 | PixelLink+VGG16 2s MS | F-Measure: 88.1% Precision: 88.6 Recall: 87.5 |
| scene-text-detection-on-icdar-2015 | SLPR | F-Measure: 84.5 Precision: 85.5 Recall: 83.6 |
| scene-text-detection-on-msra-td500 | PixelLink + VGG16 2s | F-Measure: 77.8 Precision: 83 Recall: 73.2 |