4 个月前

改进的测试时适应以实现领域泛化

改进的测试时适应以实现领域泛化

摘要

领域泛化(Domain Generalization, DG)的主要挑战在于处理训练数据和测试数据之间的分布偏移问题。近期研究表明,测试时训练(Test-Time Training, TTT)——即利用测试数据对已学习的模型进行适应——可能是解决这一问题的一个有前景的方法。通常,TTT策略的性能取决于两个主要因素:选择合适的辅助TTT任务以进行更新,以及在测试阶段识别出可靠的参数进行更新。先前的研究和我们的实验均表明,如果这两个因素没有得到妥善考虑,TTT不仅可能无法提升模型性能,反而可能对其造成损害。本研究通过提出一种改进的测试时适应方法(Improved Test-Time Adaptation, ITTA)来应对这两个因素。首先,我们不再凭经验定义辅助目标,而是提出了一种可学习的一致性损失函数用于TTT任务,该损失函数包含可调整的参数,以便更好地对齐我们的TTT任务与主预测任务。其次,我们为已训练的模型引入了额外的自适应参数,并建议在测试阶段仅更新这些自适应参数。通过广泛的实验验证,我们展示了所提出的两种策略对已学习模型有益(见图1),并且ITTA在多个DG基准测试中能够实现优于当前最先进方法的性能。代码可在https://github.com/liangchen527/ITTA 获取。

代码仓库

liangchen527/itta
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
image-to-sketch-recognition-on-pacsITTA (ResNet18)
Accuracy: 63.8
single-source-domain-generalization-on-pacsITTA (ResNet18)
Accuracy: 68.4

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
改进的测试时适应以实现领域泛化 | 论文 | HyperAI超神经