HyperAIHyperAI

Command Palette

Search for a command to run...

基于转换的依存句法分析与栈式Transformer

Ramon Fernandez Astudillo Miguel Ballesteros Tahira Naseem Austin Blodgett Radu Florian

摘要

在基于转换的句法分析中,对分析器状态的建模是实现优异性能的关键。循环神经网络通过建模全局状态(如栈-LSTM解析器)或上下文特征的局部状态(如双向LSTM解析器),显著提升了基于转换系统的性能。鉴于Transformer架构在近期解析系统中的成功应用,本文探索了对序列到序列Transformer架构的改进,以在基于转换的解析中建模全局或局部的解析器状态。实验表明,对Transformer的交叉注意力机制进行适当修改,能够显著提升在依存句法分析和抽象语义表示(AMR)解析任务上的性能,尤其在模型规模较小或训练数据有限的情况下效果更为显著。


用 AI 构建 AI

从创意到上线——通过免费 AI 协同编码、开箱即用的环境和最优惠的 GPU 价格,加速您的 AI 开发。

AI 协同编码
开箱即用的 GPU
最优定价

HyperAI Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供