
摘要
预训练大型神经语言模型(如BERT)在许多自然语言处理(NLP)任务上取得了显著的进展。然而,大多数预训练工作主要集中在通用领域的语料库上,例如新闻通讯和网络数据。一个普遍的假设是,即使是在特定领域的预训练,也可以从通用领域的语言模型开始受益。本文中,我们对这一假设提出了挑战,通过实验证明,在拥有大量未标注文本的领域(如生物医学),从头开始预训练语言模型相较于继续预训练通用领域的语言模型能够带来显著的性能提升。为了促进这一研究,我们从公开可用的数据集中编制了一个全面的生物医学NLP基准测试集。实验结果表明,特定领域的预训练为广泛的生物医学NLP任务奠定了坚实的基础,并在多个任务上达到了新的最先进水平。此外,在对预训练和任务特定微调的各种建模选择进行彻底评估时,我们发现一些常见的做法对于BERT模型来说并非必要,例如在命名实体识别(NER)中使用复杂的标记方案。为了加速生物医学NLP领域的研究,我们已向社区发布了我们的最先进预训练模型和任务特定模型,并创建了一个包含我们BLURB基准测试(即Biomedical Language Understanding & Reasoning Benchmark的缩写)的排行榜,网址为https://aka.ms/BLURB。
代码仓库
rohanshad/cmr_transformer
pytorch
GitHub 中提及
bionlu-coling2024/biomed-ner-intent_detection
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| document-classification-on-hoc | PubMedBERT uncased | Micro F1: 82.32 |
| drug-drug-interaction-extraction-on-ddi | PubMedBERT | F1: 0.8236 Micro F1: 82.36 |
| named-entity-recognition-ner-on-jnlpba | PubMedBERT uncased | F1: 79.1 |
| named-entity-recognition-ner-on-ncbi-disease | PubMedBERT uncased | F1: 87.82 |
| named-entity-recognition-on-bc2gm | PubMedBERT uncased | F1: 84.52 |
| participant-intervention-comparison-outcome | PubMedBERT uncased | F1: 73.38 |
| pico-on-ebm-pico | PubMedBERT uncased | Macro F1 word level: 73.38 |
| question-answering-on-bioasq | PubMedBERT uncased | Accuracy: 87.56 |
| question-answering-on-blurb | PubMedBERT (uncased; abstracts) | Accuracy: 71.7 |
| question-answering-on-pubmedqa | PubMedBERT uncased | Accuracy: 55.84 |
| relation-extraction-on-chemprot | PubMedBERT uncased | Micro F1: 77.24 |
| relation-extraction-on-ddi | PubMedBERT uncased | Micro F1: 82.36 |
| relation-extraction-on-gad | PubMedBERT uncased | Micro F1: 82.34 |
| text-classification-on-blurb | PubMedBERT (uncased; abstracts) | F1: 82.32 |