
摘要
我们提出了一种新的关键点检测方法,该方法在浅层多尺度架构中结合了手工设计和学习得到的卷积神经网络(CNN)滤波器。手工设计的滤波器为学习得到的滤波器提供了锚定结构,后者用于定位、评分和排序可重复特征。网络内部采用了尺度空间表示法来提取不同层次的关键点。我们设计了一种损失函数,旨在检测在多个尺度上存在的鲁棒特征,并最大化可重复性得分。我们的Key.Net模型是在从ImageNet合成的数据上训练的,并在HPatches基准上进行了评估。结果显示,我们的方法在可重复性、匹配性能和复杂度方面优于现有的最先进检测器。
代码仓库
bluedream1121/Key.Net_PyTorch
pytorch
GitHub 中提及
axelBarroso/Key.Net_Pytorch
pytorch
GitHub 中提及
axelBarroso/Key.Net
官方
tf
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| image-matching-on-imc-phototourism | Key.Net-SOSNet | mean average accuracy @ 10: 0.60285 |