4 个月前

通过大规模多任务学习获取通用分布式句表示

通过大规模多任务学习获取通用分布式句表示

摘要

近年来,自然语言处理(NLP)领域的许多进展都得益于在大量文本上以无监督方式训练的词的分布式向量表示。这些表示通常被用作解决各种NLP问题时的通用词特征。然而,将这一成功扩展到学习词序列(如句子)的表示仍然是一个未解决的问题。近期的研究探索了不同的训练目标下的无监督和有监督学习技术,以学习通用的固定长度句子表示。在这项工作中,我们提出了一种简单而有效的多任务学习框架,用于句子表示,该框架在一个模型中结合了多种训练目标的归纳偏置。我们在超过1亿个句子的数据源上,使用多个训练目标对模型进行了训练。广泛的实验表明,在弱相关任务之间共享单一循环句编码器可以持续改进先前的方法。我们展示了在迁移学习和低资源设置下使用所学的通用表示所带来的显著改进。

代码仓库

facebookresearch/InferSent
pytorch
GitHub 中提及
facebookresearch/SentEval
官方
pytorch
GitHub 中提及
Maluuba/gensen
官方
pytorch

基准测试

基准方法指标
natural-language-inference-on-multinliGenSen
Matched: 71.4
Mismatched: 71.3
paraphrase-identification-on-quora-questionGenSen
Accuracy: 87.01
semantic-textual-similarity-on-mrpcGenSen
Accuracy: 78.6%
F1: 84.4%
semantic-textual-similarity-on-sentevalGenSen
MRPC: 78.6/84.4
SICK-E: 87.8
SICK-R: 0.888
STS: 78.9/78.6

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
通过大规模多任务学习获取通用分布式句表示 | 论文 | HyperAI超神经