
摘要
本文提出了一种用于学习局部仿射协变区域的方法。我们证明,单纯最大化几何重复性并不能获得可可靠匹配的局部区域(即特征),因此必须依赖基于描述子的学习方法。本文探讨了影响此类学习与配准的若干因素,包括损失函数、描述子类型、几何参数化方式,以及可匹配性与几何精度之间的权衡,并提出了一种新颖的“硬负样本恒定损失”函数,用于仿射区域的学习。基于该硬负样本恒定损失训练得到的仿射形状估计器——AffNet——在词袋模型图像检索和宽基线立体匹配任务中均优于现有最先进方法。所提出的训练流程无需精确几何对齐的图像块。源代码与训练好的权重已公开,获取地址为:https://github.com/ducha-aiki/affnet。
代码仓库
ducha-aiki/affnet
官方
pytorch
GitHub 中提及
ducha-aiki/imc2021-sample-kornia-submission
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| image-matching-on-imc-phototourism | DoG-AffNet-HardNet8 | mean average accuracy @ 10: 0.64212 |