3 个月前

BioGPT:用于生物医学文本生成与挖掘的生成式预训练Transformer

BioGPT:用于生物医学文本生成与挖掘的生成式预训练Transformer

摘要

预训练语言模型在生物医学领域引起了越来越多的关注,这得益于其在通用自然语言领域取得的巨大成功。在通用语言领域的两大主流预训练语言模型分支——BERT(及其变体)与GPT(及其变体)中,BERT系列模型已在生物医学领域得到了广泛研究,例如BioBERT和PubMedBERT。尽管这些模型在多种判别性生物医学下游任务中取得了显著成果,但其缺乏生成能力,限制了其应用范围。本文提出BioGPT,一种基于大规模生物医学文献预训练的领域专用生成式Transformer语言模型。我们在六个生物医学自然语言处理任务上对BioGPT进行了评估,结果表明,该模型在大多数任务上均优于先前的模型。特别是在BC5CDR、KD-DTI和DDI三项端到端关系抽取任务中,分别取得了44.98%、38.42%和40.76%的F1分数,在PubMedQA任务上达到78.2%的准确率,创下新纪录。此外,通过文本生成案例研究,进一步验证了BioGPT在生成生物医学术语流畅描述方面的显著优势。代码已开源,地址为:https://github.com/microsoft/BioGPT。

基准测试

基准方法指标
document-classification-on-hocBioGPT
Micro F1: 85.12
question-answering-on-pubmedqaBioGPT(345M)
Accuracy: 78.2
question-answering-on-pubmedqaBioGPT-Large(1.5B)
Accuracy: 81.0

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
BioGPT:用于生物医学文本生成与挖掘的生成式预训练Transformer | 论文 | HyperAI超神经