4 个月前

视觉问答中基于多模态乘法特征嵌入的自由区域和检测协同注意力机制

视觉问答中基于多模态乘法特征嵌入的自由区域和检测协同注意力机制

摘要

近期,视觉问答(VQA)任务在人工智能领域受到了越来越多的关注。现有的VQA方法主要采用视觉注意力机制,将输入的问题与相应的图像区域关联起来,以实现有效的问答。研究中主要探讨了自由形式区域基于的和检测框基于的两种视觉注意力机制,前者关注自由形式的图像区域,而后者则关注预定义的检测框区域。我们认为,这两种注意力机制能够提供互补的信息,应该有效地整合在一起以更好地解决VQA问题。在本文中,我们提出了一种新的深度神经网络模型用于VQA,该模型集成了上述两种注意力机制。所提出的框架通过多模态乘法特征嵌入方案有效融合了自由形式图像区域、检测框和问题表示的特征,从而共同关注与问题相关的自由形式图像区域和检测框,实现更加准确的问答。该方法在两个公开数据集COCO-QA和VQA上进行了广泛评估,并且表现优于当前最先进的方法。源代码可在https://github.com/lupantech/dual-mfa-vqa 获取。

代码仓库

lupantech/dual-mfa-vqa
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
visual-question-answering-on-coco-visual-1Dual-MFA
Percentage correct: 70.04
visual-question-answering-on-coco-visual-4Dual-MFA
Percentage correct: 66.09

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
视觉问答中基于多模态乘法特征嵌入的自由区域和检测协同注意力机制 | 论文 | HyperAI超神经