
摘要
在多模态学习中,注意力网络提供了一种有效的方法来选择性地利用给定的视觉信息。然而,为每对多模态输入通道学习注意力分布的计算成本非常高昂,难以承受。为了解决这一问题,共注意力(co-attention)方法分别为每种模态构建了两个独立的注意力分布,忽略了多模态输入之间的相互作用。在本文中,我们提出了一种双线性注意力网络(Bilinear Attention Networks, BAN),该网络通过寻找双线性注意力分布来无缝利用给定的视觉-语言信息。BAN 考虑了两组输入通道之间的双线性交互,而低秩双线性池化则提取了每对通道的联合表示。此外,我们还提出了一种多模态残差网络的变体,以高效利用 BAN 的八张注意力图。我们在视觉问答(VQA 2.0)和 Flickr30k Entities 数据集上对模型进行了定量和定性的评估,结果表明 BAN 显著优于先前的方法,并在这两个数据集上实现了新的最先进水平。
代码仓库
jnhwkim/ban-vqa
官方
pytorch
GitHub 中提及
ronghanghu/pythia
pytorch
GitHub 中提及
facebookresearch/pythia
pytorch
GitHub 中提及
Cyanogenoid/vqa-counting
pytorch
GitHub 中提及
allenai/pythia
pytorch
GitHub 中提及
jackroos/pythia
pytorch
GitHub 中提及
facebookresearch/mmf
pytorch
GitHub 中提及
ZephyrZhuQi/ssbaseline
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| phrase-grounding-on-flickr30k-entities-test | BAN (Bottom-Up detector) | R@1: 69.69 R@10: 86.35 R@5: 84.22 |
| visual-question-answering-on-vqa-v2-test-dev | BAN+Glove+Counter | Accuracy: 70.04 |
| visual-question-answering-on-vqa-v2-test-std | BAN+Glove+Counter | overall: 70.4 |