4 个月前

PixelLink:通过实例分割检测场景文本

PixelLink:通过实例分割检测场景文本

摘要

大多数最先进的场景文本检测算法都是基于深度学习的方法,依赖于边界框回归,并至少进行两种预测:文本/非文本分类和位置回归。在这些方法中,回归在获取边界框方面起着关键作用,但并非不可或缺,因为文本/非文本预测也可以被视为一种包含完整位置信息的语义分割。然而,场景图像中的文本实例通常非常接近,使得通过语义分割很难将它们分开。因此,需要实例分割来解决这一问题。本文提出了一种基于实例分割的新型场景文本检测算法——PixelLink。该算法首先通过连接同一实例内的像素来分割出文本实例,然后直接从分割结果中提取文本边界框,而无需进行位置回归。实验表明,与基于回归的方法相比,PixelLink在多个基准测试中可以实现更好的或相当的性能,同时需要更少的训练迭代次数和更少的训练数据。

代码仓库

Autonise-AI/Text-Recognition
pytorch
GitHub 中提及
dengdan/seglink
tf
GitHub 中提及
ZJULearning/pixel_link
tf
GitHub 中提及
mayank-git-hub/Text-Recognition
pytorch
GitHub 中提及
opconty/pixellink_keras
tf
GitHub 中提及

基准测试

基准方法指标
scene-text-detection-on-icdar-2013PixelLink+VGG16 2s MS
F-Measure: 88.1%
Precision: 88.6
Recall: 87.5
scene-text-detection-on-icdar-2015SLPR
F-Measure: 84.5
Precision: 85.5
Recall: 83.6
scene-text-detection-on-msra-td500PixelLink + VGG16 2s
F-Measure: 77.8
Precision: 83
Recall: 73.2

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
PixelLink:通过实例分割检测场景文本 | 论文 | HyperAI超神经