3 个月前

通过学习目标类别编码实现非自回归翻译

通过学习目标类别编码实现非自回归翻译

摘要

非自回归Transformer是一种具有前景的文本生成模型。然而,当前的非自回归模型在翻译质量上仍落后于自回归模型。我们认为,这一准确率差距主要源于解码器输入之间缺乏依赖关系建模。为此,本文提出CNAT(Categorical Latent Variable-based Non-autoregressive Transformer),该模型在非自回归解码过程中隐式地学习类别编码作为潜在变量。这些类别编码之间的相互作用有效弥补了缺失的依赖关系,提升了模型的表达能力。实验结果表明,与多个强基准模型相比,本模型在机器翻译任务中取得了相当或更优的性能。

代码仓库

baoy-nlp/CNAT
官方
pytorch
GitHub 中提及

基准测试

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
通过学习目标类别编码实现非自回归翻译 | 论文 | HyperAI超神经