
摘要
我们致力于解决大规模视觉地点识别问题,该任务的目标是快速且准确地识别给定查询照片的位置。本文提出了以下三项主要贡献。首先,我们开发了一种卷积神经网络(CNN)架构,该架构可以直接针对地点识别任务进行端到端训练。该架构的主要组成部分是NetVLAD,这是一种新的广义VLAD层,灵感来源于图像检索中常用的“局部聚合描述符向量”(Vector of Locally Aggregated Descriptors, VLAD)图像表示方法。该层可以轻松插入任何CNN架构,并且适合通过反向传播进行训练。其次,我们提出了一种基于新的弱监督排序损失的训练方法,可以从Google街景时光机下载的同一地点随时间变化的图像中以端到端的方式学习架构参数。最后,我们展示了所提出的架构在两个具有挑战性的地点识别基准测试中显著优于非学习型图像表示和现成的CNN描述符,并在标准图像检索基准测试中改进了当前最先进的紧凑型图像表示方法。
代码仓库
vinnik-dmitry07/PlaceRecognition
pytorch
GitHub 中提及
goodproj13/DenserNet
pytorch
GitHub 中提及
MubarizZaffar/VPR-Bench
GitHub 中提及
gmberton/geo_warp
pytorch
GitHub 中提及
chengricky/PanoramicScenePlaceRecognition
pytorch
GitHub 中提及
yxgeee/openibl
pytorch
GitHub 中提及
ChienYiChi/kaggle-panda-challenge
pytorch
GitHub 中提及
Nanne/pytorch-NetVlad
pytorch
GitHub 中提及
YanLiqi/HAF
pytorch
GitHub 中提及
lyakaap/NetVLAD-pytorch
pytorch
GitHub 中提及
yxgeee/SFRS
pytorch
GitHub 中提及
keetsky/Net_ghostVLAD-pytorch
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| visual-place-recognition-on-17-places | NetVLAD | Recall@1: 61.58 |
| visual-place-recognition-on-baidu-mall | NetVLAD | Recall@1: 53.10 |
| visual-place-recognition-on-berlin-kudamm | NetVLAD | Recall@1: 38.21 |
| visual-place-recognition-on-gardens-point | NetVLAD | Recall@1: 58.50 |
| visual-place-recognition-on-hawkins | NetVLAD | Recall@1: 34.75 |
| visual-place-recognition-on-laurel-caverns | NetVLAD | Recall@1: 39.29 |
| visual-place-recognition-on-mid-atlantic | NetVLAD | Recall@1: 25.74 |
| visual-place-recognition-on-nardo-air | NetVLAD | Recall@1: 19.72 |
| visual-place-recognition-on-nardo-air-r | NetVLAD | Recall@1: 60.56 |
| visual-place-recognition-on-oxford-robotcar-4 | NetVLAD | Recall@1: 52.88 |
| visual-place-recognition-on-pittsburgh-30k | NetVLAD | Recall@1: 86.08 |
| visual-place-recognition-on-st-lucia | NetVLAD | Recall@1: 57.92 |
| visual-place-recognition-on-vp-air | NetVLAD | Recall@1: 6.39 |