
摘要
动作分割领域的主要进展得益于密集标注数据在完全监督学习中的应用。由于逐帧动作的手动标注耗时且具有挑战性,本文提出利用更易获取的辅助未标注视频,将该问题建模为域自适应(Domain Adaptation, DA)问题。尽管近年来已提出多种域自适应技术,但大多数方法仅针对空间维度进行设计。为此,本文提出混合时间域自适应(Mixed Temporal Domain Adaptation, MTDA)方法,旨在跨域联合对齐帧级与视频级嵌入特征空间,并进一步结合域注意力机制,聚焦于对域间差异较大的帧级特征进行对齐,从而实现更高效的域自适应。在三个具有挑战性的数据集(GTEA、50Salads 和 Breakfast)上的实验结果表明,所提方法在所有数据集上均显著优于当前最先进的方法,性能提升显著:例如,在 GTEA 数据集上,F1@50 指标提升 6.4%,编辑得分(edit score)提升 6.8%。
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| action-segmentation-on-50-salads-1 | DA | Acc: 83.2 Edit: 75.2 F1@10%: 82.0 F1@25%: 80.1 F1@50%: 72.5 |
| action-segmentation-on-breakfast-1 | DA | Acc: 71.0 Average F1: 66.4 Edit: 73.6 F1@10%: 74.2 F1@25%: 68.6 F1@50%: 56.5 |
| action-segmentation-on-gtea-1 | DA | Acc: 80.0 Edit: 85.8 F1@10%: 90.5 F1@25%: 88.4 F1@50%: 76.2 |