
摘要
我们探讨了残差网络和神经注意力机制在多论点挖掘任务中的应用。本文提出了一种利用注意力机制、多任务学习并采用集成方法的残差架构,该架构不对文档或论点结构做出任何假设。我们在五个不同来源的语料库上进行了广泛的实验评估,这些语料库包括用户生成的评论、科学出版物和说服性文章。实验结果表明,我们的方法在计算资源需求较高或针对特定语料库设计的最先进架构中具有强大的竞争力,代表了通用性、性能准确性和模型规模减小之间的一个有趣折衷。
代码仓库
AGalassi/StructurePrediction18
官方
tf
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| component-classification-on-cdcp | ResAttArg | Macro F1: 78.71 |
| link-prediction-on-abstrct-neoplasm | ResAttArg | F1: 54.43 |
| link-prediction-on-cdcp | ResAttArg | F1: 29.73 |
| link-prediction-on-dr-inventor | ResAttArg | F1: 43.66 |
| relation-classification-on-abstrct-neoplasm | ResAttArg | Macro F1: 70.92 |
| relation-classification-on-cdcp | ResAttArg | Macro F1: 42.95 |
| relation-classification-on-dr-inventor | ResAttArg | Macro F1: 37.72 |