
摘要
领域泛化(Domain Generalization, DG)的主要挑战在于处理训练数据和测试数据之间的分布偏移问题。近期研究表明,测试时训练(Test-Time Training, TTT)——即利用测试数据对已学习的模型进行适应——可能是解决这一问题的一个有前景的方法。通常,TTT策略的性能取决于两个主要因素:选择合适的辅助TTT任务以进行更新,以及在测试阶段识别出可靠的参数进行更新。先前的研究和我们的实验均表明,如果这两个因素没有得到妥善考虑,TTT不仅可能无法提升模型性能,反而可能对其造成损害。本研究通过提出一种改进的测试时适应方法(Improved Test-Time Adaptation, ITTA)来应对这两个因素。首先,我们不再凭经验定义辅助目标,而是提出了一种可学习的一致性损失函数用于TTT任务,该损失函数包含可调整的参数,以便更好地对齐我们的TTT任务与主预测任务。其次,我们为已训练的模型引入了额外的自适应参数,并建议在测试阶段仅更新这些自适应参数。通过广泛的实验验证,我们展示了所提出的两种策略对已学习模型有益(见图1),并且ITTA在多个DG基准测试中能够实现优于当前最先进方法的性能。代码可在https://github.com/liangchen527/ITTA 获取。
代码仓库
liangchen527/itta
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| image-to-sketch-recognition-on-pacs | ITTA (ResNet18) | Accuracy: 63.8 |
| single-source-domain-generalization-on-pacs | ITTA (ResNet18) | Accuracy: 68.4 |