NwoyeChinedu Innocent ; GonzalezCristians ; YuTong ; MascagniPietro ; MutterDidier ; MarescauxJacques ; PadoyNicolas

摘要
手术活动识别是开发用于手术室的情境感知决策支持系统的重要组成部分。在本研究中,我们致力于细粒度活动的识别,这些活动被建模为动作三元组 <器械, 动词, 目标>,表示工具的活动。为此,我们引入了一个新的腹腔镜数据集 CholecT40,该数据集由公共数据集 Cholec80 中的 40 段视频组成,所有帧均使用 128 个三元组类别进行了标注。此外,我们提出了一种直接从视频数据中识别这些三元组的方法。该方法依赖于一个称为类激活引导(Class Activation Guide, CAG)的模块,该模块利用器械激活图来指导动词和目标的识别。为了对同一帧中的多个三元组进行建模,我们还提出了一种可训练的三维交互空间(3D Interaction Space),该空间捕捉了三元组各组件之间的关联。最后,通过在 CholecT40 数据集上进行多项消融实验和与基线方法的比较,我们展示了这些贡献的重要性。
代码仓库
CAMMA-public/cholect50
pytorch
GitHub 中提及
camma-public/tripnet
官方
pytorch
GitHub 中提及
camma-public/rendezvous
pytorch
GitHub 中提及
camma-public/attention-tripnet
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| action-triplet-recognition-on-cholect40 | Tripnet | mAP: 18.95 |
| action-triplet-recognition-on-cholect50 | Tripnet (TensorFlow v1) | Mean AP: 20.0 |
| action-triplet-recognition-on-cholect50-1 | Tripnet (TensorFlow v1) | mAP: 23.4 |