
摘要
场景文本识别是计算机视觉领域的一个研究热点。近年来,基于编码器-解码器框架的识别方法被广泛提出,能够有效处理具有透视畸变和弯曲形态的场景文本。然而,这些方法在应对图像模糊、光照不均以及字符缺失等挑战时仍存在困难。我们认为,大多数编码器-解码器方法主要依赖局部视觉特征,缺乏显式的全局语义信息。为此,本文提出一种语义增强的编码器-解码器框架,以实现对低质量场景文本的鲁棒识别。该框架在编码器模块中利用语义信息进行监督,在解码器模块中则用语义信息进行初始化。具体而言,将当前最先进的ASTER方法作为范例集成到所提出的框架中。大量实验结果表明,所提框架在低质量文本图像识别任务中表现出更强的鲁棒性,并在多个基准数据集上取得了当前最优的识别性能。
代码仓库
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| optical-character-recognition-on-benchmarking | SEED | Accuracy (%): 61.2 |
| scene-text-recognition-on-icdar2013 | SEED | Accuracy: 92.8 |
| scene-text-recognition-on-icdar2015 | SEED | Accuracy: 80 |
| scene-text-recognition-on-svt | SEED | Accuracy: 89.6 |