
摘要
我们提出了针对其他自然语言处理(NLP)任务迁移学习的句子编码模型,这些模型能够高效地将句子编码为嵌入向量,并在多种迁移任务中表现出较高的准确性。两种变体模型允许在准确性和计算资源之间进行权衡。对于这两种变体,我们研究并报告了模型复杂度、资源消耗、迁移任务训练数据的可用性与任务性能之间的关系。我们将这些模型与通过预训练词嵌入实现词级迁移学习的基线模型以及不使用任何迁移学习的基线模型进行了比较。研究发现,使用句子嵌入的迁移学习通常优于词级迁移学习。通过句子嵌入进行迁移学习时,即使在监督训练数据量极少的情况下,我们也观察到了令人惊讶的良好性能。我们在针对检测模型偏见的词嵌入关联测试(Word Embedding Association Tests, WEAT)中获得了令人鼓舞的结果。我们的预训练句子编码模型已免费提供下载,并在 TensorFlow Hub 上开放使用。
代码仓库
facebookresearch/InferSent
pytorch
GitHub 中提及
ncbi-nlp/BioSentVec
GitHub 中提及
asgaardlab/test-case-similarity-technique
tf
GitHub 中提及
joseph-bongo-220/TV_NLP_Project
tf
GitHub 中提及
TAUSBV/sentence-level-domain-classification
tf
GitHub 中提及
MirkoLenz/ReCAP-Argument-Graph-Retrieval
tf
GitHub 中提及
krisbukovi/document_similarity
tf
GitHub 中提及
textflint/textflint
GitHub 中提及
f-data/ADD
tf
GitHub 中提及
ppapalampidi/SUMMER
pytorch
GitHub 中提及
Alleansa/eluvio
tf
GitHub 中提及
facebookresearch/SentEval
pytorch
GitHub 中提及
ncbi-nlp/BioWordVec
GitHub 中提及
idanmoradarthas/text-summarization
tf
GitHub 中提及
martinomensio/spacy-universal-sentence-encoder
tf
GitHub 中提及
pathway/crosslang_embed
tf
GitHub 中提及
ceshine/textrank_summary_benchmark
tf
GitHub 中提及
korymath/jann
tf
GitHub 中提及
contemn1/sentence_embeddings
tf
GitHub 中提及
ppapalampidi/GraphTP
pytorch
GitHub 中提及
weiyezhimeng/silent-guardian
pytorch
GitHub 中提及
ReCAP-UTR/Argument-Graph-Retrieval
tf
GitHub 中提及
jobdataexchange/competensor
tf
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| conversational-response-selection-on-polyai | USE | 1-of-100 Accuracy: 47.7% |
| semantic-textual-similarity-on-sts-benchmark | USE_T | Pearson Correlation: 0.782 |
| sentiment-analysis-on-cr | USE_T+CNN (w2v w.e.) | Accuracy: 87.45 |
| sentiment-analysis-on-mpqa | USE_T+DAN (w2v w.e.) | Accuracy: 88.14 |
| sentiment-analysis-on-mr | USE_T+CNN | Accuracy: 81.59 |
| sentiment-analysis-on-sst-2-binary | USE_T+CNN (lrn w.e.) | Accuracy: 87.21 |
| subjectivity-analysis-on-subj | USE | Accuracy: 93.90 |
| text-classification-on-trec-6 | USE_T+CNN | Error: 1.93 |