3 个月前

重新思考自注意力机制:迈向神经依存解析的可解释性

重新思考自注意力机制:迈向神经依存解析的可解释性

摘要

注意力机制在提升自然语言处理(NLP)任务性能的同时,仍保持了模型的可解释性。尽管自注意力(self-attention)目前被广泛采用,但由于存在大量注意力分布,其可解释性仍面临挑战。近期研究发现,引入与标签相关的信息不仅能提升模型表示能力,还有助于解释预测结果。为此,我们提出一种新型的自注意力结构——标签注意力层(Label Attention Layer):在该结构中,注意力头(attention heads)直接对应于标签。我们通过句法成分分析(constituency parsing)和依存句法分析(dependency parsing)实验验证了该方法的有效性,结果表明,所提出的模型在宾夕法尼亚树库(PTB)和中文树库(Chinese Treebank)上的两项任务均取得了新的最先进性能。此外,与现有方法相比,我们的模型所需自注意力层的数量更少。最后,我们发现标签注意力头能够学习到句法类别之间的语义关联,并揭示了用于分析模型错误的潜在路径。

代码仓库

kh8fb/LAL-Parser-Server
pytorch
GitHub 中提及
KhalilMrini/LAL-Parser
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
constituency-parsing-on-penn-treebankLabel Attention Layer + HPSG + XLNet
F1 score: 96.38
dependency-parsing-on-penn-treebankLabel Attention Layer + HPSG + XLNet
LAS: 96.26
POS: 97.3
UAS: 97.42

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
重新思考自注意力机制:迈向神经依存解析的可解释性 | 论文 | HyperAI超神经