
摘要
凭借建模双向上下文的能力,基于去噪自编码的预训练方法(如BERT)在性能上优于基于自回归语言模型的预训练方法。然而,BERT依赖于通过掩码破坏输入数据,忽略了被掩码位置之间的依赖关系,并且存在预训练与微调之间的差异。鉴于这些优缺点,我们提出了XLNet,一种广义的自回归预训练方法,该方法(1)通过最大化所有因式分解顺序排列的期望似然性来实现学习双向上下文的目标;(2)由于其自回归公式,克服了BERT的局限性。此外,XLNet将最先进的自回归模型Transformer-XL的思想融入预训练中。实证研究表明,在相同的实验设置下,XLNet在20项任务中均优于BERT,包括问答、自然语言推理、情感分析和文档排序等任务,且通常优势显著。
代码仓库
tomgoter/nlp_finalproject
tf
GitHub 中提及
fanchenyou/transformer-study
pytorch
GitHub 中提及
SambhawDrag/XLNet.jl
pytorch
GitHub 中提及
2miatran/Natural-Language-Processing
GitHub 中提及
graykode/xlnet-Pytorch
pytorch
GitHub 中提及
https-seyhan/BugAI
GitHub 中提及
MindCode-4/code-5/tree/main/xlnet
mindspore
facebookresearch/anli
pytorch
GitHub 中提及
pauldevos/python-notes
pytorch
GitHub 中提及
jonahwinninghoff/Text-Summarization
tf
GitHub 中提及
pwc-1/Paper-9/tree/main/5/xlnet
mindspore
pwc-1/Paper-9/tree/main/1/xlnet
mindspore
zihangdai/xlnet
官方
tf
GitHub 中提及
cuhksz-nlp/SAPar
pytorch
GitHub 中提及
listenviolet/XLNet
pytorch
GitHub 中提及
joshuaWang-bit/Textclassification-pytorch
pytorch
GitHub 中提及
huggingface/transformers
pytorch
GitHub 中提及
chesterdu/contrastive_summary
pytorch
GitHub 中提及
samwisegamjeee/pytorch-transformers
pytorch
GitHub 中提及
MS-P3/code7/tree/main/xlnet
mindspore
kaushaltrivedi/fast-bert
pytorch
GitHub 中提及
utterworks/fast-bert
pytorch
GitHub 中提及
zaradana/Fast_BERT
pytorch
GitHub 中提及
huggingface/xlnet
tf
GitHub 中提及