3 个月前

自监督知识蒸馏在少样本学习中的应用

自监督知识蒸馏在少样本学习中的应用

摘要

现实世界包含数量极为庞大的物体类别,一次性学习所有类别在实际中是不可行的。少样本学习(few-shot learning)作为一种有前景的学习范式,因其仅需少量样本即可快速适应新类别分布的能力而备受关注。近期研究[7, 41]表明,仅通过学习一个高质量的特征嵌入(feature embedding),其性能即可超越更为复杂的元学习(meta-learning)与度量学习(metric learning)算法。本文提出一种简洁有效的方法,用于提升深度神经网络在少样本学习任务中的表征能力。我们采用两阶段学习策略:第一阶段,通过引入自监督辅助损失,训练神经网络以最大化特征嵌入的熵,从而构建出最优的输出流形;第二阶段,通过将自监督孪生网络(self-supervised twins)拉近,最小化特征嵌入的熵,同时利用学生-教师知识蒸馏(student-teacher distillation)对流形结构进行约束。实验结果表明,即使在第一阶段,自监督机制已能超越当前最先进的方法,而第二阶段的知识蒸馏过程进一步带来了显著性能提升。相关代码已开源,地址为:https://github.com/brjathu/SKD。

代码仓库

yiren-jian/embedding-learning-fsl
pytorch
GitHub 中提及
brjathu/SKD
官方
pytorch
GitHub 中提及

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
自监督知识蒸馏在少样本学习中的应用 | 论文 | HyperAI超神经