4 个月前

如何微调BERT进行文本分类?

如何微调BERT进行文本分类?

摘要

语言模型预训练在学习通用语言表示方面已被证明是有效的。作为最先进的语言模型预训练模型之一,BERT(双向编码器表示从变压器)在许多语言理解任务中取得了令人瞩目的成果。本文通过大量实验研究了BERT在文本分类任务中的不同微调方法,并提供了一种通用的BERT微调解决方案。最终,所提出的解决方案在八个广泛研究的文本分类数据集上获得了新的最先进结果。

基准测试

基准方法指标
sentiment-analysis-on-imdbBERT_base+ITPT
Accuracy: 95.63
sentiment-analysis-on-imdbBERT_large+ITPT
Accuracy: 95.79
sentiment-analysis-on-yelp-binaryBERT_large+ITPT
Error: 1.81
sentiment-analysis-on-yelp-binaryBERT_base+ITPT
Error: 1.92
sentiment-analysis-on-yelp-fine-grainedBERT_base+ITPT
Error: 29.42
sentiment-analysis-on-yelp-fine-grainedBERT_large+ITPT
Error: 28.62
text-classification-on-ag-newsBERT-ITPT-FiT
Error: 4.8
text-classification-on-dbpediaBERT-ITPT-FiT
Error: 0.68
text-classification-on-sogou-newsBERT-ITPT-FiT
Accuracy: 98.07
text-classification-on-trec-6BERT-ITPT-FiT
Error: 3.2
text-classification-on-yahoo-answersBERT-ITPT-FiT
Accuracy: 77.62
text-classification-on-yelp-2BERT-ITPT-FiT
Accuracy: 98.08%
text-classification-on-yelp-5BERT-ITPT-FiT
Accuracy: 70.58%

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
如何微调BERT进行文本分类? | 论文 | HyperAI超神经