
摘要
在预训练自然语言表示时,增加模型规模通常会提高下游任务的性能。然而,在某个点之后,由于GPU/TPU内存限制和更长的训练时间,进一步扩大模型变得越来越困难。为了解决这些问题,我们提出了两种参数减少技术,以降低内存消耗并加快BERT的训练速度。广泛的实验证据表明,我们提出的方法相比原始的BERT模型具有更好的扩展性。此外,我们还使用了一种专注于建模句间连贯性的自监督损失函数,并证明它对多句子输入的下游任务持续有益。因此,我们的最佳模型在GLUE、RACE和SQuAD基准测试中建立了新的最先进结果,同时其参数量少于BERT-large。代码和预训练模型可在https://github.com/google-research/ALBERT获取。
代码仓库
lyqcom/albert
mindspore
jpablou/Matching-The-Blanks-Ths
pytorch
GitHub 中提及
AhmedYounes94/Semi-supervised-BERT-NER
tf
GitHub 中提及
yahah100/text_summarization
tf
GitHub 中提及
common-english/bert-all
pytorch
GitHub 中提及
benywon/ReCO
pytorch
GitHub 中提及
rajatgermany/qa-nlp
pytorch
GitHub 中提及
kpe/bert-for-tf2
tf
GitHub 中提及
google-research/ALBERT
官方
tf
GitHub 中提及
AdamStein97/Semi-Supervised-BERT-NER
tf
GitHub 中提及
codegram/calbert
pytorch
GitHub 中提及
pwc-1/Paper-8/tree/main/albert
mindspore
cypressd1999/FYP_2021
pytorch
GitHub 中提及
brightmart/albert_zh
tf
GitHub 中提及
KnightZhang625/BERT_TF
tf
GitHub 中提及
Mind23-2/MindCode-131
mindspore
Soikonomou/albert_final_infer8
pytorch
GitHub 中提及
lucidrains/compressive-transformer-pytorch
pytorch
GitHub 中提及
CLUEbenchmark/CLUE
tf
GitHub 中提及
facebookresearch/anli
pytorch
GitHub 中提及
benywon/Chinese-GPT-2
pytorch
GitHub 中提及
lucidrains/routing-transformer
pytorch
GitHub 中提及
plkmo/BERT-Relation-Extraction
pytorch
GitHub 中提及
Sanyuan-Chen/RecAdam
pytorch
GitHub 中提及
Tencent/TurboTransformers
pytorch
GitHub 中提及
Soikonomou/albert_final_infer12
pytorch
GitHub 中提及
Soikonomou/albert_final
pytorch
GitHub 中提及
xinyooo/ALBERT4Rec
pytorch
GitHub 中提及
huggingface/transformers
pytorch
GitHub 中提及
lonePatient/albert_pytorch
pytorch
GitHub 中提及
graykode/ALBERT-Pytorch
pytorch
GitHub 中提及
epfml/collaborative-attention
pytorch
GitHub 中提及
mtzcorporations/nlp_teamjodka
pytorch
GitHub 中提及
Soikonomou/bert_new_new
pytorch
GitHub 中提及
cui0523/Code6/tree/main/albert
mindspore
hieudepchai/BERT_IE
pytorch
GitHub 中提及
vvvm23/albert
pytorch
GitHub 中提及
Soikonomou/bert_new
pytorch
GitHub 中提及
lucidrains/sinkhorn-transformer
pytorch
GitHub 中提及
mandubian/codenets
pytorch
GitHub 中提及
appcoreopc/berty
tf
GitHub 中提及