4 个月前

深度上下文化词表示

深度上下文化词表示

摘要

我们介绍了一种新型的深度上下文化词表示方法,该方法不仅建模了词使用的复杂特征(如句法和语义),还建模了这些用法在不同语言环境中的变化(即多义性建模)。我们的词向量是从一个经过大规模文本语料库预训练的深层双向语言模型(biLM)的内部状态中学习得到的函数。我们展示了这些表示可以轻松添加到现有模型中,并显著提升了六个具有挑战性的自然语言处理问题的最新水平,包括问答、文本蕴含和情感分析。此外,我们还进行了分析,表明暴露预训练网络的深层内部结构至关重要,这使得下游模型能够混合不同类型的部分监督信号。

代码仓库

bplank/teaching-dl4nlp
GitHub 中提及
menajosep/AleatoricSent
tf
GitHub 中提及
zenanz/ChemPatentEmbeddings
tf
GitHub 中提及
yangrui123/Hidden
tf
GitHub 中提及
UKPLab/elmo-bilstm-cnn-crf
tf
GitHub 中提及
flairNLP/flair
pytorch
GitHub 中提及
Mind23-2/MindCode-98
mindspore
GitHub 中提及
shelleyHLX/bilm_EMLo
tf
GitHub 中提及
mingdachen/bilm-tf
tf
GitHub 中提及
horizonheart/ELMO
tf
GitHub 中提及
seunghwan1228/ELMO
tf
GitHub 中提及
richinkabra/CoVe-BCN
pytorch
GitHub 中提及
yuanxiaosc/ELMo
tf
GitHub 中提及
kaist-dmlab/BioNER
pytorch
GitHub 中提及
Hironsan/anago
GitHub 中提及
ankurbanga/Language-Models
pytorch
GitHub 中提及
bestend/tf2-bi-lstm-crf-nni
tf
GitHub 中提及
kunde122/bilm-tf
tf
GitHub 中提及
kafura-kafiri/tf2-elmo
tf
GitHub 中提及
helboukkouri/character-bert
pytorch
GitHub 中提及
HIT-SCIR/ELMoForManyLangs
pytorch
GitHub 中提及
nlp-research/bilm-tf
tf
GitHub 中提及
yuanjing-zhu/elmo
pytorch
GitHub 中提及
griff4692/LMC
pytorch
GitHub 中提及
iliaschalkidis/ELMo-keras
tf
GitHub 中提及
2023-MindSpore-1/ms-code-190
mindspore
GitHub 中提及
YC-wind/embedding_study
tf
GitHub 中提及
cheng18/bilm-tf
tf
GitHub 中提及
weixsong/bilm-tf
tf
GitHub 中提及
allenai/bilm-tf
tf
GitHub 中提及
kinimod23/NMT_Project
GitHub 中提及

基准测试

基准方法指标
citation-intent-classification-on-acl-arcBiLSTM-Attention + ELMo
Macro-F1: 54.6
conversational-response-selection-on-polyaiELMO
1-of-100 Accuracy: 19.3%
coreference-resolution-on-ontonotese2e-coref + ELMo
F1: 70.4
named-entity-recognition-ner-on-conll-2003BiLSTM-CRF+ELMo
F1: 92.22
named-entity-recognition-on-conllBiLSTM-CRF+ELMo
F1: 93.42
natural-language-inference-on-snliESIM + ELMo Ensemble
% Test Accuracy: 89.3
% Train Accuracy: 92.1
Parameters: 40m
natural-language-inference-on-snliESIM + ELMo
% Test Accuracy: 88.7
% Train Accuracy: 91.6
Parameters: 8.0m
question-answering-on-squad11BiDAF + Self Attention + ELMo (ensemble)
EM: 81.003
F1: 87.432
question-answering-on-squad11BiDAF + Self Attention + ELMo (single model)
EM: 78.58
F1: 85.833
question-answering-on-squad11-devBiDAF + Self Attention + ELMo
F1: 85.6
question-answering-on-squad20BiDAF + Self Attention + ELMo (single model)
EM: 63.372
F1: 66.251
semantic-role-labeling-on-ontonotesHe et al., 2017 + ELMo
F1: 84.6
sentiment-analysis-on-sst-5-fine-grainedBCN+ELMo
Accuracy: 54.7
task-1-grouping-on-ocwELMo (LARGE)
# Correct Groups: 55 ± 4
# Solved Walls: 0 ± 0
Adjusted Mutual Information (AMI): 14.5 ± .4
Adjusted Rand Index (ARI): 11.8 ± .4
Fowlkes Mallows Score (FMS): 29.5 ± .3
Wasserstein Distance (WD): 86.3 ± .6
word-sense-disambiguation-on-supervisedELMo
SemEval 2007: 62.2
SemEval 2013: 66.2
SemEval 2015: 71.3
Senseval 2: 71.6
Senseval 3: 69.6

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
深度上下文化词表示 | 论文 | HyperAI超神经