4 个月前

自注意力消息传递用于对比少样本学习

自注意力消息传递用于对比少样本学习

摘要

人类具有从少量示例中几乎无需监督即可学习新表示的独特能力。然而,深度学习模型要达到令人满意的性能水平,则需要大量的数据和监督。无监督少样本学习(U-FSL)旨在弥合机器与人类之间的这一差距。受图神经网络(GNNs)在发现复杂样本间关系方面的能力启发,我们提出了一种基于自注意力的消息传递对比学习方法(命名为SAMP-CLR),用于U-FSL的预训练。此外,我们还提出了一种基于最优传输(OT)的微调策略(称为OpT-Tune),以高效地将任务意识引入我们新的端到端无监督少样本分类框架(SAMPTransfer)。我们的大量实验结果验证了SAMPTransfer在多种下游少样本分类场景中的有效性,在miniImagenet和tieredImagenet基准测试中分别实现了最高7%以上和5%以上的性能提升,为U-FSL设立了新的最先进水平。进一步的研究也证实,SAMPTransfer在miniImagenet上的表现与某些有监督基线相当,并在具有挑战性的跨域场景中超越了所有现有的U-FSL基线。我们的代码可以在GitHub仓库中找到,地址为https://github.com/ojss/SAMPTransfer/。

代码仓库

ojss/samptransfer
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
unsupervised-few-shot-image-classification-onSAMPTransfer (Conv4)
Accuracy: 61.02
unsupervised-few-shot-image-classification-on-1SAMPTransfer (Conv4)
Accuracy: 72.52
unsupervised-few-shot-image-classification-on-2SAMPTransfer (Conv4)
Accuracy: 49.10
unsupervised-few-shot-image-classification-on-3SAMPTransfer (Conv4)
Accuracy: 65.19

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
自注意力消息传递用于对比少样本学习 | 论文 | HyperAI超神经