
摘要
无参考图像质量评估(No-Reference Image Quality Assessment, NR-IQA)的目标是根据主观评价结果估计图像的感知质量,由于缺乏原始参考图像,该问题复杂且尚未完全解决。本文提出一种新型模型,通过融合卷积神经网络(Convolutional Neural Networks, CNNs)与Transformer中的自注意力机制,实现对输入图像局部与非局部特征的联合提取,以应对NR-IQA任务。具体而言,我们利用CNN捕捉图像的局部结构信息;为进一步克服CNN提取特征中存在的局部性偏差,并获得图像的非局部表征,我们将在CNN提取的特征上引入Transformer模型,将这些特征建模为序列化输入,从而实现对全局上下文关系的建模。此外,为增强主观评分与客观评分之间的单调相关性,我们引入批内图像间的相对距离信息,并强制模型保持其相对排序关系。最后,我们观察到,当对输入图像施加等变变换(如水平翻转)时,NR-IQA模型的性能显著下降。为此,我们提出一种基于自一致性(self-consistency)的自监督学习策略,以提升模型对输入变换的鲁棒性。具体而言,我们强制要求同一图像与其水平翻转版本在质量评估模型输出之间保持一致性,从而充分利用丰富的自监督信息,降低模型预测的不确定性。为验证所提方法的有效性,我们在七个标准图像质量评估数据集(涵盖合成与真实图像)上进行了实验,结果表明,所提模型在多个数据集上均取得了当前最优的性能表现。
代码仓库
isalirezag/tres
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| no-reference-image-quality-assessment-on | TReS | PLCC: 0.883 SRCC: 0.863 |
| no-reference-image-quality-assessment-on-1 | TReS | PLCC: 0.858 SRCC: 0.859 |
| no-reference-image-quality-assessment-on-csiq | TReS | PLCC: 0.942 SRCC: 0.922 |
| video-quality-assessment-on-msu-sr-qa-dataset | TReS trained on FLIVE | KLCC: 0.39398 PLCC: 0.50005 SROCC: 0.48882 Type: NR |
| video-quality-assessment-on-msu-sr-qa-dataset | TReS trained on KONIQ | KLCC: 0.49004 PLCC: 0.56226 SROCC: 0.62578 Type: NR |
| video-quality-assessment-on-msu-sr-qa-dataset | TReS | KLCC: 0.48901 PLCC: 0.56277 SROCC: 0.62496 Type: NR |