
摘要
本文提出了一种用于常识推理的混合神经网络(Hybrid Neural Network, HNN)模型。HNN由两个组件模型组成,即掩码语言模型和语义相似度模型,这两个模型共享一个基于BERT的上下文编码器,但使用不同的模型特定输入和输出层。HNN在三个经典的常识推理任务上取得了新的最先进结果,将WNLI基准提升至89%,Winograd模式挑战(WSC)基准提升至75.1%,以及PDP60基准提升至90.0%。消融研究表明,语言模型和语义相似度模型是互补的常识推理方法,而HNN有效地结合了两者的优点。代码和预训练模型将在https://github.com/namisan/mt-dnn 公开发布。
代码仓库
namisan/mt-dnn
官方
pytorch
GitHub 中提及
microsoft/MT-DNN
pytorch
GitHub 中提及
chunhuililili/mt_dnn
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| coreference-resolution-on-winograd-schema | HNN | Accuracy: 75.1 |
| natural-language-inference-on-wnli | HNNensemble | Accuracy: 89 |
| natural-language-inference-on-wnli | HNN | Accuracy: 83.6 |
| natural-language-understanding-on-pdp60 | HNN | Accuracy: 90 |