4 个月前

基于双向训练的Transformer的手写数学表达式识别

基于双向训练的Transformer的手写数学表达式识别

摘要

编码器-解码器模型在手写数学表达式识别方面取得了显著进展。然而,现有的方法在准确分配图像特征的注意力上仍然面临挑战。此外,这些编码器-解码器模型通常在其解码器部分采用基于RNN(循环神经网络)的模型,这使得它们在处理长$\LaTeX{}$序列时效率较低。本文中,我们采用基于Transformer的解码器替代了基于RNN的解码器,从而使整个模型架构变得非常简洁。此外,我们引入了一种新的训练策略,以充分利用Transformer在双向语言建模中的潜力。实验结果表明,与几种不使用数据增强的方法相比,我们的模型在CROHME 2014数据集上的ExpRate(表达式识别率)提高了2.23%。同样,在CROHME 2016和CROHME 2019数据集上,我们的模型分别将ExpRate提高了1.92%和2.28%。

代码仓库

qingzhenduyu/ical
pytorch
GitHub 中提及
Green-Wood/BTTR
官方
pytorch
GitHub 中提及

基准测试

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
基于双向训练的Transformer的手写数学表达式识别 | 论文 | HyperAI超神经