
摘要
人-物体交互(Human-Object Interaction, HOI)由人、物体以及隐含的交互关系(动词)三部分构成。与以往直接将像素映射为HOI语义的方法不同,本文提出一种分析性的新视角来学习HOI。类比于调和分析(Harmonic Analysis)——其核心目标是研究如何通过基本波的叠加来表示信号——我们提出“HOI分析”(HOI Analysis)框架。我们认为,连贯的HOI可被分解为独立的人体与物体;反之,独立的人体与物体也可重新整合为连贯的HOI。此外,具有相同HOI语义的人-物体对之间的变换,也可通过分解与整合操作更有效地实现。由此,隐含的动词语义得以在变换函数空间中进行建模与表达。基于这一思想,我们提出一种集成-分解网络(Integration-Decomposition Network, IDN),用于实现上述分解与整合过程,并在多个主流HOI检测基准上取得了当前最优的性能表现。代码已开源,地址为:https://github.com/DirtyHarryLYL/HAKE-Action-Torch/tree/IDN-(Integrating-Decomposing-Network)。
代码仓库
UCSB-VRL/GTNet
pytorch
GitHub 中提及
DirtyHarryLYL/HAKE-Action-Torch
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| human-object-interaction-detection-on-hico | IDN (COCO detector) | mAP: 23.36 |
| human-object-interaction-detection-on-hico | IDN (finetuned detector) | mAP: 26.29 |
| human-object-interaction-detection-on-v-coco | IDN | AP(S1): 53.3 AP(S2): 60.3 |