NwoyeChinedu Innocent ; YuTong ; SharmaSaurav ; MuraliAditya ; AlapattDeepak ; VardazaryanArmine ; YuanKun ; HajekJonas ; ReiterWolfgang ; YamlahiAmine ; SmidtFinn-Henri ; ZouXiaoyang ; ZhengGuoyan ; OliveiraBruno ; TorresHelena R. ; KondoSatoshi ; KasaiSatoshi ; HolmFelix ; ÖzsoyEge ; GuiShuangchun ; LiHan ; RavitejaSista ; SathishRachana ; PoudelPranav ; BhattaraiBinod ; WangZiheng ; RuiGuo ; SchellenbergMelanie ; VilaçaJoão L. ; CzempielTobias ; WangZhenkun ; SheetDebdoot ; ThapaShrawan Kumar ; BernikerMax ; GodauPatrick ; MoraisPedro ; RegmiSudarshan ; TranThuy Nuong ; FonsecaJaime ; NölkeJan-Hinrich ; LimaEstevão ; VazquezEduard ; Maier-HeinLena ; NavabNassir ; MascagniPietro ; SeeligerBarbara ; GonzalezCristians ; MutterDidier ; PadoyNicolas

摘要
将手术活动形式化为使用的器械、执行的动作和目标解剖结构的三元组,正逐渐成为手术活动建模的金标准方法。这种方法的优势在于,它有助于更详细地理解工具与组织之间的相互作用,从而可以开发出更好的人工智能辅助图像引导手术技术。2021年引入的CholecTriplet挑战赛以及早期的努力已经整合了旨在从手术录像中识别这些三元组的技术。如果还能估计这些三元组的空间位置,则可以为计算机辅助干预提供更加精确的术中情境感知决策支持。本文介绍了CholecTriplet2022挑战赛,该挑战赛将手术动作三元组建模从识别扩展到检测。它包括对每个可见手术器械(或工具)进行弱监督边界框定位,作为关键参与者,并以<器械, 动词, 目标>的形式对每种工具活动进行建模。文章描述了一种基线方法和在挑战赛中提出的10种新的深度学习算法来解决这一任务。此外,还提供了对这些方法的详尽方法论比较、多指标下的深入结果分析、视觉和程序挑战的意义,以及对未来研究方向和外科应用的有益见解。
代码仓库
CAMMA-public/cholect50
官方
pytorch
camma-public/cholectriplet2022
官方
pytorch
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| action-triplet-detection-on-cholect50 | ResNet-CAM-YOLOv5 | box mAP: 4.49 |