
摘要
基于张量分解的模型在知识图谱补全(Knowledge Graph Completion, KGC)任务中展现出强大的性能。然而,这类模型的性能通常严重受限于过拟合问题。为此,研究者提出了多种正则化方法,如Frobenius范数平方正则化和张量核范数正则化等,但这些方法的应用范围有限,显著制约了其实际使用价值。为应对这一挑战,本文提出一种新型正则化器——双性诱导正则化器(DUality-induced RegulArizer, DURA)。DURA不仅能够有效提升现有模型的性能,还具备广泛的适用性,可推广至多种不同方法。DURA的核心创新源于一个关键观察:对于一个现有的基于张量分解的KGC模型(即“原模型”),通常存在一个与其密切相关的基于距离度量的KGC模型(即“对偶模型”)。通过利用这种原-对偶结构的内在联系,DURA实现了性能的稳定且显著提升。实验结果表明,DURA在多个基准数据集上均取得了持续且显著的性能改进。
代码仓库
MIRALab-USTC/KGE-DURA
官方
pytorch
GitHub 中提及
miralab-ustc/qe-cone
pytorch
GitHub 中提及
MIRALab-USTC/KGE-HAKE
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| link-prediction-on-fb15k-237 | ComplEx-DURA | Hits@1: 0.276 Hits@10: 0.560 MRR: 0.371 |
| link-prediction-on-wn18rr | CP-DURA | Hits@1: 0.441 Hits@10: 0.552 MRR: 0.478 |
| link-prediction-on-wn18rr | RESCAL-DURA | Hits@1: 0.455 Hits@10: 0.577 MRR: 0.498 |
| link-prediction-on-wn18rr | ComplEx-DURA | Hits@1: 0.449 MRR: 0.491 |
| link-prediction-on-yago3-10 | CP-DURA (large model) | Hits@1: 0.506 Hits@10: 0.709 MRR: 0.579 |
| link-prediction-on-yago3-10 | ComplEx-DURA (large model) | Hits@1: 0.511 Hits@10: 0.713 MRR: 0.584 |