
摘要
我们提出了一种新的学习语义表示的技术,该技术将分布假设扩展到多语言数据和联合空间嵌入。我们的模型利用平行数据,学习将语义等价句子的嵌入进行强对齐,同时保持不同句子嵌入之间的足够距离。这些模型不依赖于词对齐或任何句法信息,并成功应用于多种不同的语言。此外,我们将这种方法扩展到文档级别的语义表示学习。我们在两个跨语言文档分类任务上评估了这些模型,结果表明其性能优于先前的最先进方法。通过定性分析和研究中转效应(pivoting effects),我们证明了我们的表示在语义上是合理的,并且能够在没有平行数据的情况下捕捉跨语言的语义关系。
代码仓库
karlmoritz/bicvm
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| cross-lingual-document-classification-on-12 | Bi+ | Accuracy: 88.1 |
| cross-lingual-document-classification-on-13 | Bi+ | Accuracy: 79.2 |