
摘要
尽管以BERT为代表的大型语言模型在自然语言处理(NLP)领域被广泛使用,但其预训练过程通常被视为一项只有少数资金雄厚的工业实验室才能承担的奢侈投入。那么,如何在有限预算下实现此类模型的训练?本文提出了一种在单台低端深度学习服务器上,仅用24小时即可完成掩码语言模型预训练的可行方案。我们证明,通过软件优化、架构设计选择以及超参数调优的有机结合,能够在远低于原始预训练成本的情况下,训练出在GLUE基准任务上表现可与BERT-base相媲美的模型。
代码仓库
IntelLabs/academic-budget-bert
官方
pytorch
GitHub 中提及
yxzwang/normalized-information-payload
pytorch
GitHub 中提及
peteriz/academic-budget-bert
官方
pytorch
GitHub 中提及
octanove/shiba
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| linguistic-acceptability-on-cola | 24hBERT | Accuracy: 57.1 |
| natural-language-inference-on-multinli | 24hBERT | Matched: 84.4 Mismatched: 83.8 |
| natural-language-inference-on-qnli | 24hBERT | Accuracy: 90.6 |
| natural-language-inference-on-rte | 24hBERT | Accuracy: 57.7% |
| question-answering-on-quora-question-pairs | 24hBERT | Accuracy: 70.7 |
| semantic-textual-similarity-on-mrpc | 24hBERT | Accuracy: 87.5% |
| semantic-textual-similarity-on-sts-benchmark | 24hBERT | Pearson Correlation: 0.820 |
| sentiment-analysis-on-sst-2-binary | 24hBERT | Accuracy: 93.0 |