
摘要
三元组抽取任务旨在从非结构化文本中提取实体对及其对应的关系。现有的大多数方法在包含特定目标关系的训练数据上训练抽取模型,无法抽取训练时未观察到的新关系。通常情况下,将模型泛化到未见过的关系需要在合成训练数据上进行微调,而这些数据往往存在噪声且不可靠。我们展示了一种通过将三元组抽取任务简化为预训练语言模型(LM)上的模板填充任务的方法,可以使抽取模型具备零样本学习能力,并消除对额外训练数据的需求。我们提出了一种新的框架——ZETT(基于模板填充的零样本三元组抽取),该框架将任务目标与生成式变压器的预训练目标对齐,以实现对未见过关系的泛化。实验结果表明,在FewRel和Wiki-ZSL数据集上,ZETT表现出一致且稳定的性能,即使使用自动生成的模板也优于之前的最先进方法。https://github.com/megagonlabs/zett/
代码仓库
megagonlabs/zett
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| zero-shot-relation-triplet-extraction-on | ZETT | Avg. F1: 31.28 |