3 个月前

基于混合适配器的大规模预训练模型领域泛化

基于混合适配器的大规模预训练模型领域泛化

摘要

在真实世界场景中部署模型时,训练出在分布外(Out-of-Distribution, OOD)情形下仍能保持良好性能的鲁棒视觉模型是一项关键任务。尽管该领域已有大量研究,但多数方法相较于最简单的经验风险最小化(Empirical Risk Minimization, ERM)策略,仅在基准测试中展现出微弱的性能提升,而该基准的超参数搜索空间较为有限。本研究聚焦于利用大规模预训练模型的知识,以提升模型在OOD场景下的表现,并应对领域泛化(Domain Generalization)问题。然而,先前研究发现,直接微调大规模预训练模型可能会损害其OOD鲁棒性。为此,我们采用参数高效微调(Parameter-Efficient Fine-Tuning, PEFT)技术,在使用大模型的同时有效保留其OOD鲁棒性。通过广泛的实验与分析,我们证实,最有效的策略包括集成多种异构模型以及扩大预训练规模。基于此,我们在领域泛化任务中取得了当前最优的性能表现。相关代码与项目页面已公开,访问地址为:https://cvlab-kaist.github.io/MoA。

代码仓库

KU-CVLAB/MoA
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
domain-generalization-on-domainnetMoA (OpenCLIP, ViT-B/16)
Average Accuracy: 62.7
domain-generalization-on-office-homeMoA (OpenCLIP, ViT-B/16)
Average Accuracy: 90.6
domain-generalization-on-pacs-2MoA (OpenCLIP, ViT-B/16)
Average Accuracy: 97.4
domain-generalization-on-terraincognitaMoA (OpenCLIP, ViT-B/16)
Average Accuracy: 52.8
domain-generalization-on-vlcsMoA (OpenCLIP, ViT-B/16)
Average Accuracy: 83.1

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
基于混合适配器的大规模预训练模型领域泛化 | 论文 | HyperAI超神经