
摘要
在超关系知识图谱(Hyper-relational Knowledge Graph, HKG)上的链接预测是一项具有重要意义的研究任务。HKG由超关系事实(H-Facts)构成,每个H-Fact包含一个主三元组以及多个辅助的属性-值限定词,能够有效表达全面的事实信息。HKG的内部结构可在全球层面以超图(hypergraph)形式进行建模,在局部层面则以语义序列形式进行表示。然而,现有研究大多未能同时建模HKG的图结构与序列结构,从而限制了其表示能力的提升。为克服这一局限,本文提出一种新颖的层次化注意力模型——HKG嵌入的层次化注意力模型(Hierarchical Attention for HKG Embedding, HAHE),该模型包含全局层次与局部层次的注意力机制。其中,全局层次注意力通过超图对偶注意力层(hypergraph dual-attention layers)建模HKG的整体图结构;局部层次注意力则利用异构自注意力层(heterogeneous self-attention layers)捕捉H-Fact内部的语义序列结构。实验结果表明,HAHE在HKG标准数据集上的链接预测任务中达到了当前最优性能。此外,HAHE首次解决了HKG中多位置预测(multi-position prediction)的问题,显著提升了HKG链接预测任务的实际应用价值。本文代码已公开发布,供学术界共享与复现。
代码仓库
lhrlab/hahe
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| link-prediction-on-jf17k | HAHE | H@1: 0.554 H@10: 0.806 MRR: 0.623 |
| link-prediction-on-wd50k | HAHE | Hit@1: 0.291 Hit@10: 0.516 MRR: 0.368 |
| link-prediction-on-wikipeople | HAHE | H@1: 0.447 H@10: 0.639 MRR: 0.509 |