
摘要
知识嵌入(Knowledge Embeddings, KE)通过将实体和关系嵌入到连续向量空间中来表示知识图谱(Knowledge Graph, KG)。现有的方法主要分为基于结构的方法和基于描述的方法。基于结构的方法学习能够保留KG固有结构的表示,但它们在现实世界中的KG中难以很好地表示大量长尾实体,因为这些实体的结构信息有限。基于描述的方法利用文本信息和语言模型,但在这一方向上的早期方法仅勉强优于基于结构的方法,并且存在诸如昂贵的负样本采样和严格的描述需求等问题。本文提出了一种新的方法LMKE,该方法采用语言模型来生成知识嵌入,旨在丰富长尾实体的表示并解决先前基于描述方法的问题。我们使用对比学习框架对基于描述的知识嵌入学习进行建模,以提高训练和评估的效率。实验结果表明,LMKE在链接预测和三元组分类的知识嵌入基准测试中取得了最先进的性能,特别是在处理长尾实体方面表现突出。
代码仓库
neph0s/lmke
官方
pytorch
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| link-prediction-on-wn18rr | C-LMKE(bert-base) | Hits@1: 0.523 Hits@10: 0.789 Hits@3: 0.671 MR: 79 MRR: 0.619 |