
摘要
计算机视觉已经从在大型监督训练集(如ImageNet)上预训练的多层深度网络权重初始化中受益。自然语言处理(NLP)通常仅在深度模型的最低层使用预训练的词向量进行初始化。本文中,我们利用一种用于机器翻译(MT)的注意力序列到序列模型中的深层LSTM编码器来为词向量提供上下文信息。我们展示了在多种常见的NLP任务中,加入这些上下文向量(Contextual Vectors, CoVe)可以提高仅使用无监督词向量和字符向量的性能,这些任务包括情感分析(SST、IMDb)、问题分类(TREC)、蕴含关系判断(SNLI)以及问答系统(SQuAD)。对于细粒度情感分析和蕴含关系判断,CoVe将基线模型的性能提升至当前最佳水平。
代码仓库
menajosep/AleatoricSent
tf
GitHub 中提及
richinkabra/CoVe-BCN
pytorch
GitHub 中提及
adi2103/AML-CoVe
tf
GitHub 中提及
salesforce/cove
官方
pytorch
cove-adml/adml-anon
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| natural-language-inference-on-snli | Biattentive Classification Network + CoVe + Char | % Test Accuracy: 88.1 % Train Accuracy: 88.5 Parameters: 22m |
| question-answering-on-squad11 | DCN + Char + CoVe | EM: 71.3 F1: 79.9 Hardware Burden: Operations per network pass: |
| question-answering-on-squad11-dev | DCN (Char + CoVe) | EM: 71.3 F1: 79.9 |
| sentiment-analysis-on-imdb | BCN+Char+CoVe | Accuracy: 91.8 |
| sentiment-analysis-on-sst-2-binary | BCN+Char+CoVe | Accuracy: 90.3 |
| sentiment-analysis-on-sst-5-fine-grained | BCN+Char+CoVe | Accuracy: 53.7 |
| text-classification-on-trec-6 | CoVe | Error: 4.2 |