4 个月前

生物医学自然语言处理中的迁移学习:BERT和ELMo在十个基准数据集上的评估

生物医学自然语言处理中的迁移学习:BERT和ELMo在十个基准数据集上的评估

摘要

受通用语言理解评估基准(General Language Understanding Evaluation, GLUE)成功的启发,我们引入了生物医学语言理解评估(Biomedical Language Understanding Evaluation, BLUE)基准,以促进生物医学领域预训练语言表示的研究发展。该基准包括五个任务,涵盖十个数据集,涉及生物医学和临床文本的不同规模和难度。我们还基于BERT和ELMo评估了几种基线模型,并发现使用PubMed摘要和MIMIC-III临床笔记预训练的BERT模型取得了最佳结果。我们已将数据集、预训练模型及代码公开发布在https://github.com/ncbi-nlp/BLUE_Benchmark。

代码仓库

gmpoli/electramed
tf
GitHub 中提及
ncbi-nlp/BLUE_Benchmark
官方
GitHub 中提及
ncbi-nlp/NCBI_BERT
官方
tf
GitHub 中提及

基准测试

基准方法指标
document-classification-on-hocNCBI_BERT(large) (P)
F1: 87.3
medical-named-entity-recognition-on-shareNCBI_BERT(base) (P+M)
F1: 0.792
medical-relation-extraction-on-ddi-extractionNCBI_BERT(large) (P)
F1: 79.9
named-entity-recognition-on-bc5cdr-chemicalNCBI_BERT(base) (P)
F1: 93.5
named-entity-recognition-on-bc5cdr-diseaseNCBI_BERT(base) (P)
F1: 86.6
natural-language-inference-on-mednliNCBI_BERT(base) (P+M)
Accuracy: 84.00
relation-extraction-on-chemprotNCBI_BERT(large) (P)
F1: 74.4
semantic-similarity-on-biossesNCBI_BERT(base) (P+M)
Pearson Correlation: 0.9159999999999999
semantic-similarity-on-medstsNCBI_BERT(base) (P+M)
Pearson Correlation: 0.848

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
生物医学自然语言处理中的迁移学习:BERT和ELMo在十个基准数据集上的评估 | 论文 | HyperAI超神经