
摘要
我们提出了一种用于少样本学习的归纳信息最大化方法(Transductive Information Maximization, TIM)。该方法在给定少样本任务下,通过最大化查询特征与其标签预测之间的互信息,同时结合基于支持集的监督损失,实现性能优化。此外,我们设计了一种新型的交替方向求解器来处理互信息损失,相较于基于梯度的优化方法,显著加速了归纳推理过程的收敛速度,同时保持相近的分类准确率。TIM的推理过程具有模块化特性,可无缝集成于任意预训练的特征提取器之上。在标准的归纳式少样本学习设置下,大量实验表明,TIM在多种数据集和网络架构上均显著优于当前最先进的方法。值得注意的是,该方法仅基于在基础类别上通过简单交叉熵损失训练的固定特征提取器,无需依赖复杂的元学习机制。无论是在经典的少样本学习基准测试中,还是在更具挑战性的场景(如领域偏移、类别数量更大)下,TIM均能稳定实现相对于最优基线方法2%至5%的准确率提升。
代码仓库
mboudiaf/TIM
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| few-shot-image-classification-on-cub-200-5 | TIM-GD | Accuracy: 90.8 |
| few-shot-image-classification-on-cub-200-5-1 | TIM-GD | Accuracy: 82.2% |
| few-shot-image-classification-on-mini-10 | TIM-GD | Accuracy: 71 |
| few-shot-image-classification-on-mini-12 | TIM-GD | Accuracy: 56.1 |
| few-shot-image-classification-on-mini-13 | TIM-GD | Accuracy: 72.8 |
| few-shot-image-classification-on-mini-2 | TIM-GD | Accuracy: 77.80 |
| few-shot-image-classification-on-mini-7 | TIM-GD | Accuracy: 39.3 |
| few-shot-image-classification-on-mini-8 | TIM-GD | Accuracy: 59.5 |
| few-shot-image-classification-on-tiered | TIM-GD | Accuracy: 82.1 |
| few-shot-image-classification-on-tiered-1 | TIM-GD | Accuracy: 89.8 |
| few-shot-learning-on-mini-imagenet-5-shot | TIM-GD | Accuracy: 87.4% |