4 个月前

SpanBERT:通过表示和预测片段改进预训练

SpanBERT:通过表示和预测片段改进预训练

摘要

我们介绍了SpanBERT,这是一种旨在更好地表示和预测文本片段的预训练方法。我们的方法扩展了BERT,具体包括:(1)遮蔽连续的随机文本片段,而不是随机的单个词;(2)训练文本片段边界表示以预测整个被遮蔽的文本片段的内容,而不依赖于其中的单个词表示。SpanBERT在诸如问答和共指消解等文本片段选择任务上始终优于BERT及其经过更好调优的基线模型,并且取得了显著的性能提升。特别是,在使用与BERT-large相同的训练数据和模型规模的情况下,我们的单一模型在SQuAD 1.1和2.0上的F1分数分别达到了94.6%和88.7%。我们还在OntoNotes共指消解任务上达到了新的最先进水平(79.6% F1),在TACRED关系抽取基准测试中表现出色,并且在GLUE基准测试中也显示出一定的性能提升。

代码仓库

UnknownGenie/altered-BERT-KPE
pytorch
GitHub 中提及
facebookresearch/SpanBERT
官方
pytorch
GitHub 中提及
zixinzeng-jennifer/spanbert_trans
pytorch
GitHub 中提及
mandarjoshi90/coref
tf
GitHub 中提及

基准测试

基准方法指标
coreference-resolution-on-ontonotesSpanBERT
F1: 79.6
linguistic-acceptability-on-colaSpanBERT
Accuracy: 64.3%
natural-language-inference-on-multinliSpanBERT
Matched: 88.1
natural-language-inference-on-qnliSpanBERT
Accuracy: 94.3%
natural-language-inference-on-rteSpanBERT
Accuracy: 79.0%
open-domain-question-answering-on-searchqaSpanBERT
F1: 84.8
paraphrase-identification-on-quora-questionSpanBERT
Accuracy: 89.5
F1: 71.9
question-answering-on-naturalqaSpanBERT
F1: 82.5
question-answering-on-newsqaSpanBERT
F1: 73.6
question-answering-on-squad11SpanBERT (single model)
EM: 88.8
F1: 94.6
Hardware Burden: 586G
question-answering-on-squad20SpanBERT
EM: 85.7
F1: 88.7
question-answering-on-squad20-devSpanBERT
F1: 86.8
question-answering-on-triviaqaSpanBERT
F1: 83.6
relation-classification-on-tacred-1SpanBERT
F1: 70.8
relation-extraction-on-re-tacredSpanBERT
F1: 85.3
relation-extraction-on-tacredSpanBERT-large
F1: 70.8
semantic-textual-similarity-on-mrpcSpanBERT
Accuracy: 90.9%
semantic-textual-similarity-on-sts-benchmarkSpanBERT
Pearson Correlation: 0.899
sentiment-analysis-on-sst-2-binarySpanBERT
Accuracy: 94.8

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
SpanBERT:通过表示和预测片段改进预训练 | 论文 | HyperAI超神经