
摘要
零样本学习(Zero-shot learning)依赖于语义类别表示,例如人工设计的属性或学习得到的嵌入向量,以在无任何标注样本的情况下预测类别。本文提出通过将常识知识图谱中的节点嵌入到向量空间中来学习类别表示。常识知识图谱是一种尚未充分开发的显式高层知识来源,其应用于多种任务所需的人工干预极少。为有效捕捉图谱中的知识,我们提出了ZSL-KG——一种通用框架,采用一种新颖的Transformer图卷积网络(TrGCN)生成类别表示。所提出的TrGCN架构能够计算节点邻域的非线性组合。实验结果表明,在六项零样本基准数据集中的五项(涵盖语言与视觉任务)上,ZSL-KG均优于现有的基于WordNet的方法。
代码仓库
BatsResearch/nayak-arxiv20-code
官方
pytorch
GitHub 中提及
BatsResearch/zsl-kg
官方
pytorch
GitHub 中提及
batsresearch/nayak-tmlr22-code
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| generalized-zero-shot-learning-on-apy-0-shot | ZSL-KG | Harmonic mean: 61.57 |
| generalized-zero-shot-learning-on-awa2 | ZSL-KG | Harmonic mean: 74.58 |
| generalized-zero-shot-learning-on-bbn-pronoun | ZSL-KG | F1: 26.69 |
| generalized-zero-shot-learning-on-ontonotes | ZSL-KG | F1: 45.21 |
| zero-shot-learning-on-apy-0-shot | ZSL-KG | Top-1: 60.54 |
| zero-shot-learning-on-awa2 | ZSL-KG | average top-1 classification accuracy: 78.08 |
| zero-shot-learning-on-snips | ZSL-KG | Accuracy: 88.98 |