
摘要
过去两年间,生成式基于对话的大型语言模型(LLMs)的兴起,推动了开发能够提供接近人类水平对话与推理体验系统的竞争。然而,近期研究表明,这些模型在语言理解方面的能力仍然有限,远未达到人类水平,尤其是在把握词语的上下文语义方面——这是推理能力的核心要素之一。本文提出了一种简单且计算高效的多语言词义消歧(Word Sense Disambiguation, WSD)框架。我们的方法将WSD任务重新建模为基于群代数优化的BabelNet语义网络上的聚类判别分析。我们在多个WSD基准测试中验证了该方法的有效性,取得了所有语言和任务上的新最先进(state-of-the-art)性能,且在词性分类的单项评估中同样表现卓越。值得注意的是,即使在低资源语言场景下,我们的模型也显著超越现有主流方法,同时将参数量减少了72%。
代码仓库
danielguzmanolivares/sandwich
官方
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| word-sense-disambiguation-on-supervised | SANDWiCH | SemEval 2007: 80.9 SemEval 2013: 92.6 SemEval 2015: 91.5 Senseval 2: 87.8 Senseval 3: 85.7 |