4 个月前

MambaPlace:基于注意力机制的文本到点云跨模态位置识别

MambaPlace:基于注意力机制的文本到点云跨模态位置识别

摘要

视觉语言位置识别(VLVPR)通过整合图像中的自然语言描述来提升机器人的定位性能。利用语言信息,VLVPR指导机器人进行位置匹配,克服了仅依赖视觉的局限性。多模态融合的核心在于挖掘不同模态之间的互补信息。然而,一般的融合方法依赖于传统的神经架构,难以捕捉跨模态交互的动态特性,尤其是在存在复杂的模态内和模态间相关性的情况下。为此,本文提出了一种新颖的从粗到细且端到端连接的跨模态位置识别框架,称为MambaPlace。在粗定位阶段,文本描述和3D点云分别由预训练的T5模型和实例编码器进行编码。随后,这些数据通过Text Attention Mamba(TAM)和Point Clouds Mamba(PCM)进行增强和对齐处理。在后续的精定位阶段,文本描述和3D点云的特征通过级联Cross Attention Mamba(CCAM)进行跨模态融合并进一步增强。最终,我们从融合后的文本点云特征中预测出位置偏移,实现最精确的定位。大量实验表明,MambaPlace在KITTI360Pose数据集上的定位精度优于现有的最先进方法。

代码仓库

CV4RA/MambaPlace
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
visual-place-recognition-on-kitti360poseMambaPlace
Localization Recall@1 : 0.45

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
MambaPlace:基于注意力机制的文本到点云跨模态位置识别 | 论文 | HyperAI超神经