
摘要
人体-物体交互(Human-Object Interaction, HOI)检测作为目标检测任务的下游任务,旨在定位图像中的人体与物体对,并提取二者之间的语义关系。近年来,由于具有较高的效率,单阶段方法已成为该任务的新趋势。然而,这些方法通常专注于检测潜在的交互点或筛选人体-物体对,而忽略了不同物体在空间尺度上位置与尺寸的多样性。为解决这一问题,本文提出一种基于Transformer的检测方法——QAHOI(Query-Based Anchors for Human-Object Interaction Detection),该方法采用多尺度架构,从不同空间尺度提取特征,并利用基于查询的锚点机制,统一预测HOI实例的所有组成部分。进一步研究发现,强大的主干网络显著提升了QAHOI的检测精度;在HICO-DET基准测试上,采用Transformer作为主干网络的QAHOI方法大幅超越了当前最先进的技术。项目源代码已公开,地址为:https://github.com/cjw2021/QAHOI。
代码仓库
cjw2021/QAHOI
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| human-object-interaction-detection-on-hico | QAHOI (Swin-L) | mAP: 35.78 |