4 个月前

在翻译中学习:上下文化词向量

在翻译中学习:上下文化词向量

摘要

计算机视觉已经从在大型监督训练集(如ImageNet)上预训练的多层深度网络权重初始化中受益。自然语言处理(NLP)通常仅在深度模型的最低层使用预训练的词向量进行初始化。本文中,我们利用一种用于机器翻译(MT)的注意力序列到序列模型中的深层LSTM编码器来为词向量提供上下文信息。我们展示了在多种常见的NLP任务中,加入这些上下文向量(Contextual Vectors, CoVe)可以提高仅使用无监督词向量和字符向量的性能,这些任务包括情感分析(SST、IMDb)、问题分类(TREC)、蕴含关系判断(SNLI)以及问答系统(SQuAD)。对于细粒度情感分析和蕴含关系判断,CoVe将基线模型的性能提升至当前最佳水平。

代码仓库

menajosep/AleatoricSent
tf
GitHub 中提及
richinkabra/CoVe-BCN
pytorch
GitHub 中提及
adi2103/AML-CoVe
tf
GitHub 中提及
salesforce/cove
官方
pytorch
cove-adml/adml-anon
pytorch
GitHub 中提及

基准测试

基准方法指标
natural-language-inference-on-snliBiattentive Classification Network + CoVe + Char
% Test Accuracy: 88.1
% Train Accuracy: 88.5
Parameters: 22m
question-answering-on-squad11DCN + Char + CoVe
EM: 71.3
F1: 79.9
Hardware Burden:
Operations per network pass:
question-answering-on-squad11-devDCN (Char + CoVe)
EM: 71.3
F1: 79.9
sentiment-analysis-on-imdbBCN+Char+CoVe
Accuracy: 91.8
sentiment-analysis-on-sst-2-binaryBCN+Char+CoVe
Accuracy: 90.3
sentiment-analysis-on-sst-5-fine-grainedBCN+Char+CoVe
Accuracy: 53.7
text-classification-on-trec-6CoVe
Error: 4.2

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
在翻译中学习:上下文化词向量 | 论文 | HyperAI超神经