
摘要
临床笔记是由医生在每次患者就诊时创建的文本文件。这些笔记通常附有医学代码,用于描述诊断和治疗情况。然而,标注这些代码既费时又容易出错;此外,代码与文本之间的关联未被标注,导致特定诊断和治疗背后的原因和细节变得模糊不清。本文介绍了一种基于注意力机制的卷积神经网络模型,该模型可以从临床文本中预测医学代码。我们的方法利用卷积神经网络在文档中聚合信息,并通过注意力机制选择数千个可能代码中最相关的段落。该方法具有较高的准确性,达到了 Precision@8 为 0.71 和 Micro-F1 为 0.54 的性能指标,均优于此前的最先进水平。此外,通过一位医生对模型可解释性的评估,我们证明了注意力机制能够为每个代码分配提供有意义的解释。
代码仓库
dalgu90/icd-coding-benchmark
pytorch
GitHub 中提及
jamesmullenbach/caml-mimic
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| medical-code-prediction-on-mimic-iii | DR-CAML | Macro-AUC: 89.7 Macro-F1: 8.6 Micro-AUC: 98.5 Micro-F1: 52.9 Precision@15: 54.8 Precision@8: 69.0 |
| medical-code-prediction-on-mimic-iii | Bi-GRU | Macro-AUC: 82.2 Macro-F1: 3.8 Micro-AUC: 97.1 Micro-F1: 41.7 Precision@15: 44.5 Precision@8: 58.5 |
| medical-code-prediction-on-mimic-iii | Logistic Regression | Macro-AUC: 56.1 Macro-F1: 1.1 Micro-AUC: 93.7 Micro-F1: 27.2 Precision@15: 41.1 Precision@8: 54.2 |
| medical-code-prediction-on-mimic-iii | SVM | Micro-F1: 44.1 |
| medical-code-prediction-on-mimic-iii | CNN | Macro-AUC: 80.6 Macro-F1: 4.2 Micro-AUC: 96.9 Micro-F1: 41.9 Precision@15: 44.3 Precision@8: 58.1 |
| medical-code-prediction-on-mimic-iii | CAML | Macro-AUC: 89.5 Macro-F1: 8.8 Micro-AUC: 98.6 Micro-F1: 53.9 Precision@15: 56.1 Precision@8: 70.9 |