
摘要
语言模型预训练在学习通用语言表示方面已被证明是有效的。作为最先进的语言模型预训练模型之一,BERT(双向编码器表示从变压器)在许多语言理解任务中取得了令人瞩目的成果。本文通过大量实验研究了BERT在文本分类任务中的不同微调方法,并提供了一种通用的BERT微调解决方案。最终,所提出的解决方案在八个广泛研究的文本分类数据集上获得了新的最先进结果。
代码仓库
Derposoft/ai-educator
GitHub 中提及
qinhanmin2014/fine-tune-bert-for-text-classification
pytorch
GitHub 中提及
xuyige/BERT4doc-Classification
官方
pytorch
GitHub 中提及
ongunuzaymacar/comparatively-finetuning-bert
pytorch
GitHub 中提及
bcaitech1/p4-dkt-no_caffeine_no_gain
pytorch
GitHub 中提及
uzaymacar/comparatively-finetuning-bert
pytorch
GitHub 中提及
GeorgeLuImmortal/Hierarchical-BERT-Model-with-Limited-Labelled-Data
pytorch
GitHub 中提及
heraclex12/VLSP2020-Fake-News-Detection
pytorch
GitHub 中提及
helmy-elrais/RoBERT_Recurrence_over_BERT
pytorch
GitHub 中提及
soarsmu/BiasFinder
pytorch
GitHub 中提及
arctic-yen/Google_QUEST_Q-A_Labeling
tf
GitHub 中提及
sahil00199/KYC
pytorch
GitHub 中提及
Domminique/Deploy-BERT-for-Sentiment-Analysis-with-FastAPI-
pytorch
GitHub 中提及
jyp1111/sentiment_analysis
pytorch
GitHub 中提及
saproovarun/Google-Quest-Q-A
tf
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| sentiment-analysis-on-imdb | BERT_base+ITPT | Accuracy: 95.63 |
| sentiment-analysis-on-imdb | BERT_large+ITPT | Accuracy: 95.79 |
| sentiment-analysis-on-yelp-binary | BERT_large+ITPT | Error: 1.81 |
| sentiment-analysis-on-yelp-binary | BERT_base+ITPT | Error: 1.92 |
| sentiment-analysis-on-yelp-fine-grained | BERT_base+ITPT | Error: 29.42 |
| sentiment-analysis-on-yelp-fine-grained | BERT_large+ITPT | Error: 28.62 |
| text-classification-on-ag-news | BERT-ITPT-FiT | Error: 4.8 |
| text-classification-on-dbpedia | BERT-ITPT-FiT | Error: 0.68 |
| text-classification-on-sogou-news | BERT-ITPT-FiT | Accuracy: 98.07 |
| text-classification-on-trec-6 | BERT-ITPT-FiT | Error: 3.2 |
| text-classification-on-yahoo-answers | BERT-ITPT-FiT | Accuracy: 77.62 |
| text-classification-on-yelp-2 | BERT-ITPT-FiT | Accuracy: 98.08% |
| text-classification-on-yelp-5 | BERT-ITPT-FiT | Accuracy: 70.58% |