3 个月前

MeDAL:用于自然语言理解预训练的医学缩写消歧数据集

MeDAL:用于自然语言理解预训练的医学缩写消歧数据集

摘要

当前许多自然语言处理(NLP)方法难以在临床环境中应用的主要挑战之一,是公开可用医疗数据集的缺乏。在本研究中,我们提出了MeDAL,这是一个专为缩写消歧任务而精心构建的大规模医学文本数据集,旨在支持医学领域自然语言理解的预训练。我们在该数据集上对多种主流架构的模型进行了预训练,并通过实证研究证明,此类预训练能够显著提升在下游医学任务上微调时的性能表现及收敛速度。

代码仓库

mcGill-NLP/medal
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
mortality-prediction-on-mimic-iiiLSTM+SA (pretrained)
Accuracy: 0.8298
mortality-prediction-on-mimic-iiiELECTRA (pretrained)
Accuracy: 0.8443
mortality-prediction-on-mimic-iiiELECTRA (from scratch)
Accuracy: 0.8325
mortality-prediction-on-mimic-iiiLSTM (pretrained)
Accuracy: 0.828
mortality-prediction-on-mimic-iiiLSTM+SA (from scratch)
Accuracy: 0.7996

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
MeDAL:用于自然语言理解预训练的医学缩写消歧数据集 | 论文 | HyperAI超神经