4 个月前

LogME:预训练模型在迁移学习中的实用评估

LogME:预训练模型在迁移学习中的实用评估

摘要

本文研究了任务适应性预训练模型选择问题,这是一个尚未充分探索的问题,即在不进行微调的情况下评估目标任务的预训练模型并从模型库中选择最佳模型。一些初步的研究工作已经解决了监督预训练模型向分类任务迁移的问题,但它们无法处理新兴的无监督预训练模型或回归任务。为了追求一种实用的评估方法,我们提出估计由预训练模型提取的特征所给出的标签证据的最大值。与最大似然不同,最大证据对过拟合具有免疫性,而其昂贵的计算成本可以通过我们精心设计的算法大幅降低。对数最大证据(LogME)可以用于评估预训练模型在迁移学习中的表现:具有高LogME值的预训练模型很可能具备良好的迁移性能。LogME具有快速、准确和通用的特点,成为首个实用的预训练模型评估方法。与暴力微调相比,LogME最多可将实际运行时间加速3000倍,并且仅需1%的内存占用。它在其设定下显著优于先前的方法,并适用于新的设定。该方法足够通用,适用于多种预训练模型(包括监督预训练和无监督预训练)、下游任务(包括分类和回归)以及模态(包括视觉和语言)。代码可在以下仓库获取:\href{https://github.com/thuml/LogME}{https://github.com/thuml/LogME}。

代码仓库

thuml/LogME
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
transferability-on-classification-benchmarklogme
Kendall's Tau: 0.482

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
LogME:预训练模型在迁移学习中的实用评估 | 论文 | HyperAI超神经