
摘要
我们介绍了一种基于全局归一化的转换式神经网络模型,该模型在词性标注、依存句法分析和句子压缩方面取得了最先进的结果。我们的模型是一个简单的前馈神经网络,它在一个特定于任务的转换系统上运行,但其准确率可与循环神经网络模型相媲美甚至更优。我们讨论了全局归一化相对于局部归一化的重要性:一个关键的见解是,标签偏差问题表明全局归一化模型可以严格比局部归一化模型更具表达能力。
代码仓库
tensorflow/models/tree/master/research/syntaxnet
tf
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| dependency-parsing-on-penn-treebank | Andor et al. | LAS: 92.79 POS: 97.44 UAS: 94.61 |