3 个月前

基于预处理主干神经网络潜在空间的最优传输映射的迁移学习少样本分类

基于预处理主干神经网络潜在空间的最优传输映射的迁移学习少样本分类

摘要

MetaDL Challenge 2020 聚焦于少样本(few-shot)设置下的图像分类任务。本文介绍该竞赛中排名第二的参赛方案。我们提出的元学习方法通过对骨干网络在隐空间中生成的类别分布进行调整,使每个类别的特征分布更趋近于高斯分布,从而提升分类性能。该操作被称为“隐空间变换”(Latent Space Transform)算法。在此基础上,我们采用期望最大化(Expectation Maximization, EM)算法的迭代方式,进一步对各类别中心进行对齐,以有效利用大量未标注数据所蕴含的信息——这些未标注数据通常在仅有少量标注样本的基础上额外提供。为实现这一目标,我们引入了基于Sinkhorn算法的最优传输(Optimal Transport)映射。实验结果表明,该方法在性能上优于以往的工作以及其他变体算法(如K近邻算法、高斯混合模型等),在少样本图像分类任务中展现出显著优势。

代码仓库

ctom2/latent-space-transform
官方
pytorch
GitHub 中提及

基准测试

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
基于预处理主干神经网络潜在空间的最优传输映射的迁移学习少样本分类 | 论文 | HyperAI超神经