3 个月前

使用混合样本防范 Barlow Twins 过拟合

使用混合样本防范 Barlow Twins 过拟合

摘要

自监督学习(Self-supervised Learning, SSL)旨在不依赖标注数据的情况下,学习可迁移的特征表示,以服务于下游任务。Barlow Twins算法因其相较于对比学习方法(如对比学习)更广泛的应用与简洁的实现方式而备受关注,其核心思想是在最小化特征冗余的同时,最大化对常见数据扰动的不变性。通过优化这一目标,网络能够学习到更具实用性的特征表示,同时避免噪声或恒定不变的特征,从而在少量微调的情况下显著提升下游任务的性能。尽管Barlow Twins在预训练阶段表现出色,但其底层的SSL目标由于样本间缺乏强交互性(与对比学习方法相比),可能在实际训练中导致特征过拟合。我们的实验观察表明,单纯优化Barlow Twins目标并不能保证在预训练的某一阶段之后持续提升特征质量,甚至在某些数据集上可能导致下游性能下降。为应对这一挑战,我们提出混合Barlow Twins(Mixed Barlow Twins),通过在输入空间中对样本进行线性插值,增强训练过程中的样本交互性。该方法在原始Barlow Twins目标基础上引入了一项额外的正则化项,其假设是:输入空间中的线性插值会对应于特征空间中的线性插值。通过在预训练中引入这一正则化机制,有效缓解了特征过拟合问题,并显著提升了在CIFAR-10、CIFAR-100、TinyImageNet、STL-10以及ImageNet等数据集上的下游任务表现。相关代码与预训练模型权重已开源,地址为:https://github.com/wgcban/mix-bt.git

代码仓库

wgcban/mix-bt
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
self-supervised-learning-on-cifar10ResNet18
average top-1 classification accuracy: 92.58
self-supervised-learning-on-cifar10ResNet50
average top-1 classification accuracy: 93.89
self-supervised-learning-on-cifar100ResNet18
average top-1 classification accuracy: 69.31
self-supervised-learning-on-cifar100ResNet50
average top-1 classification accuracy: 72.51
self-supervised-learning-on-stl-10ResNet18
Accuracy: 91.02
self-supervised-learning-on-stl-10ResNet50
Accuracy: 91.70
self-supervised-learning-on-tinyimagenetResNet18
average top-1 classification accuracy: 51.67
self-supervised-learning-on-tinyimagenetResNet50
average top-1 classification accuracy: 51.84

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
使用混合样本防范 Barlow Twins 过拟合 | 论文 | HyperAI超神经