
摘要
我们描述了一种用于视觉问答的非常简单的词袋基线模型。该基线模型将问题中的词特征与图像的卷积神经网络(CNN)特征进行拼接,以预测答案。在具有挑战性的VQA数据集上评估时,该模型的表现与许多最近使用循环神经网络的方法相当。为了探索训练模型的优势和劣势,我们还提供了一个交互式网页演示和开源代码。
代码仓库
yikang-li/iqan
pytorch
GitHub 中提及
karunraju/VQA
pytorch
GitHub 中提及
sidaw/nbsvm
GitHub 中提及
miohana/vqa
tf
GitHub 中提及
sidgan/whats_in_a_question
GitHub 中提及
metalbubble/VQAbaseline
官方
GitHub 中提及
SkyOL5/VQA-CoAttention
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| visual-question-answering-on-coco-visual-1 | iBOWIMG baseline | Percentage correct: 62.0 |
| visual-question-answering-on-coco-visual-4 | iBOWIMG baseline | Percentage correct: 55.9 |