3 个月前

少样本学习中的原型修正

少样本学习中的原型修正

摘要

少样本学习(Few-shot learning)旨在利用极少的标注数据识别新类别。原型网络(Prototypical network)在现有研究中被广泛采用,然而,当在标注数据量稀少且样本尺寸分布狭窄的情况下进行训练时,往往会导致原型(prototype)产生偏差。本文识别出该过程中的两个关键影响因素:类内偏差(intra-class bias)与类间偏差(cross-class bias)。为此,我们提出一种在归纳设置(transductive setting)下简单而有效的原型修正方法。该方法通过标签传播(label propagation)减少类内偏差,并借助特征迁移(feature shifting)降低类间偏差。此外,本文还进行了理论分析,推导了该方法的合理性及其性能的下界。实验结果在三个少样本学习基准数据集上验证了所提方法的有效性。值得注意的是,该方法在miniImageNet数据集上取得了70.31%(1-shot)和81.89%(5-shot)的先进性能,在tieredImageNet数据集上分别达到78.74%(1-shot)和86.92%(5-shot),均达到当前最优水平。

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
少样本学习中的原型修正 | 论文 | HyperAI超神经