4 个月前

基于深度双仿射注意力的神经依存句法分析

基于深度双仿射注意力的神经依存句法分析

摘要

本文基于Kiperwasser和Goldberg(2016)近期在简单图基依存句法分析器中使用神经注意力机制的工作。我们使用了一个更大但更彻底正则化的解析器,与其他最近的双向长短期记忆网络(BiLSTM)方法相比,采用了双仿射分类器来预测弧和标签。我们的解析器在六种不同语言的标准树库上取得了最先进或接近最先进水平的性能,在最受欢迎的英语PTB数据集上达到了95.7%的未标记依存关系准确率(UAS)和94.1%的带标签依存关系准确率(LAS)。这使得它成为该基准测试中表现最佳的图基解析器——比Kiperwasser和Goldberg(2016)的方法分别提高了1.8%和2.2%——并且与表现最佳的转换基解析器(Kuncoro等人,2016)相当,后者在相同数据集上实现了95.8%的UAS和94.6%的LAS。此外,我们还展示了哪些超参数选择对解析准确性产生了显著影响,从而使我们在其他图基方法上获得了较大提升。

代码仓库

XuezheMax/NeuroNLP2
pytorch
GitHub 中提及
februa22/biaffineparser
pytorch
GitHub 中提及
FranxYao/PoincareProbe
pytorch
GitHub 中提及
fajri91/NeuralRST-TopDown
pytorch
GitHub 中提及
deepdialog/tf-parser
tf
GitHub 中提及
danifg/SyntacticPointer
pytorch
GitHub 中提及
vsubramaniam851/typ_embed
pytorch
GitHub 中提及
wanghm92/Sing_Par
tf
GitHub 中提及
ganeshjawahar/ELMoLex
pytorch
GitHub 中提及
fajri91/RSTExtractor
pytorch
GitHub 中提及
mgzeke0/biaffineparser
pytorch
GitHub 中提及
yzhangcs/parser
pytorch
GitHub 中提及
redrew/neuralrst-bottom-up
pytorch
GitHub 中提及
tdozat/Parser-v1
tf
GitHub 中提及
chantera/biaffineparser
pytorch
GitHub 中提及
idiap/g2g-transformer
pytorch
GitHub 中提及
anaezquerro/separ
pytorch
GitHub 中提及
tdozat/Parser
tf
GitHub 中提及
baidu/DDParser
paddle
GitHub 中提及
makyr90/Biaffine_Parser
pytorch
GitHub 中提及

基准测试

基准方法指标
dependency-parsing-on-conll-2009Biaffine Parser
LAS: 85.38
UAS: 88.90
dependency-parsing-on-penn-treebankDeep Biaffine + RoBERTa
LAS: 95.75
UAS: 97.29
dependency-parsing-on-penn-treebankDeep Biaffine
LAS: 94.22
UAS: 95.87

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
基于深度双仿射注意力的神经依存句法分析 | 论文 | HyperAI超神经