4 个月前

BECLR:批增强对比少样本学习

BECLR:批增强对比少样本学习

摘要

从少量标记样本中快速学习是深度表示学习时代区分机器和人类的一个基本属性。无监督少样本学习(U-FSL)旨在通过在训练过程中放弃对注释的依赖来弥合这一差距。受到对比学习方法在U-FSL领域取得成功的启发,我们从结构上探讨了这些方法在预训练和下游推理阶段的不足之处。为此,我们提出了一种新颖的动态聚类记忆(Dynamic Clustered mEmory, DyCE)模块,以促进高度可分离的潜在表示空间,从而在预训练阶段增强正样本采样,并将隐式类别级别的见解注入无监督对比学习中。随后,我们解决了少样本推理阶段中被忽视但至关重要的样本偏差问题。我们提出了一种基于迭代最优传输的分布对齐(Optimal Transport-based distribution Alignment, OpTA)策略,并证明该策略能够高效地解决这一问题,尤其是在少样本场景下,FSL方法因样本偏差而表现最差的情况。进一步讨论表明,DyCE和OpTA是构成一种新型端到端方法(我们称之为BECLR)的两个相互关联的部分,它们相辅相成,共同放大彼此的影响。最后,我们通过一系列广泛的定量和定性实验验证了BECLR在所有现有的U-FSL基准测试中(据我们所知)树立了新的最先进水平,并显著优于当前的最佳基线方法(代码库可在以下地址获取:https://github.com/stypoumic/BECLR)。

代码仓库

stypoumic/beclr
官方
pytorch

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
BECLR:批增强对比少样本学习 | 论文 | HyperAI超神经