3 个月前

少样本学习中的开放集似然最大化

少样本学习中的开放集似然最大化

摘要

我们研究少样本开放集识别(Few-Shot Open-Set Recognition, FSOSR)问题,即在仅拥有少量标注样本的若干类别中对实例进行分类,同时识别出不属于任何已知类别的未知实例。我们采用流行的归纳推理(transductive)设定,利用推理阶段的未标注查询样本以提升性能。基于现有归纳方法在开放集场景下表现不佳的观察,我们提出了一种最大似然原则的推广形式:在传统的参数化模型基础上,引入隐变量得分,以降低潜在异常值的影响。该方法在支持集上嵌入监督约束,并对查询集施加额外惩罚项,以抑制模型对预测结果的过度自信。我们采用块坐标下降(block-coordinate descent)优化策略,交替优化隐变量得分与参数化模型,使二者相互促进。由此提出的统一框架被命名为开放集似然优化(Open-Set Likelihood Optimization, OSLO)。OSLO具有良好的可解释性与完全模块化特性,可无缝集成于任意预训练模型之上。通过大量实验验证,我们的方法在开放集识别的两个核心任务——正常实例分类与异常实例检测——上均显著优于现有的归纳与归纳式方法。

代码仓库

ebennequin/few-shot-open-set
官方
pytorch
GitHub 中提及

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
少样本学习中的开放集似然最大化 | 论文 | HyperAI超神经