3 个月前

上下文越多,性能越好:面向全方位词义消歧的上下文感知词义嵌入

上下文越多,性能越好:面向全方位词义消歧的上下文感知词义嵌入

摘要

上下文感知的词嵌入(contextualized word embeddings)在自然语言处理的多个任务中已被证明具有高效性,因其能够携带丰富的语义信息。然而,如何将这些嵌入与结构化的知识源建立关联,仍是当前的一大挑战。本文提出一种半监督方法——ARES(Sense-aware Embeddings of Senses,即语义感知的词义嵌入),用于生成词典知识库中词汇意义的嵌入表示,其嵌入空间与上下文感知词向量空间具有可比性。ARES生成的表示使得仅采用简单的1-最近邻(1 Nearest-Neighbour)算法,即可在英语词义消歧任务以及多语言词义消歧任务中超越现有最先进模型的表现,且训练过程仅需英语语境标注数据。此外,我们在“词在上下文”(Word-in-Context)任务中进一步评估了所提嵌入的质量,结果表明,当作为外部知识源使用时,ARES嵌入能持续提升神经网络模型的性能,使其达到甚至媲美更为复杂的架构。所有WordNet概念的ARES嵌入,以及用于构建词义表示的自动提取上下文,均可免费获取,访问地址为:http://sensembert.org/ares。

基准测试

基准方法指标
word-sense-disambiguation-on-supervisedARES
SemEval 2007: 71.0
SemEval 2013: 77.3
SemEval 2015: 83.2
Senseval 2: 78.0
Senseval 3: 77.1

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
上下文越多,性能越好:面向全方位词义消歧的上下文感知词义嵌入 | 论文 | HyperAI超神经