
摘要
知识图谱是许多人工智能任务的重要资源,但往往存在不完整性问题。在本研究中,我们提出利用预训练语言模型进行知识图谱补全。我们将知识图谱中的三元组视为文本序列,并提出了一种名为基于Transformer的知识图谱双向编码器表示(KG-BERT)的新框架来建模这些三元组。我们的方法以三元组的实体和关系描述作为输入,并使用KG-BERT语言模型计算三元组的评分函数。多个基准知识图谱上的实验结果表明,我们的方法在三元组分类、链接预测和关系预测任务中能够达到最先进的性能。
代码仓库
gychant/CSKMTermDefn
pytorch
GitHub 中提及
ManasRMohanty/DS5500-capstone
pytorch
GitHub 中提及
yao8839836/kg-bert
官方
pytorch
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| link-prediction-on-fb15k-237 | KG-BERT | Hits@10: 0.42 MR: 153 |
| link-prediction-on-umls | KG-BERT | Hits@10: 0.990 MR: 1.47 |
| link-prediction-on-wn18rr | KG-BERT | Hits@10: 0.524 MR: 97 |