3 个月前

MWP-BERT:面向数学应用题求解的数值增强预训练

MWP-BERT:面向数学应用题求解的数值增强预训练

摘要

数学应用题(Math Word Problem, MWP)求解在数值表示学习方面面临一个两难困境。为避免数值表示问题并缩小可行解的搜索空间,现有MWP求解方法通常将真实数值替换为符号占位符,以专注于逻辑推理。然而,与程序合成、知识图谱推理等常见符号推理任务不同,MWP求解在数值推理方面具有额外要求:真正关键的并非数值本身,而是可复用的数值属性。因此,我们认为,通过上下文感知的表示学习框架,将数值属性注入符号占位符,可为解决数值表示难题提供一条有效路径。在本研究中,我们这一思想引入主流预训练语言模型(Pre-trained Language Model, PLM)技术,构建了MWP-BERT——一种面向数学应用题的上下文化数值表示预训练模型。实验结果表明,MWP-BERT在英文与中文基准数据集上的MWP求解任务以及多项MWP专项理解任务中均展现出显著的有效性。

代码仓库

lzhenwen/mwp-bert
官方
pytorch

基准测试

基准方法指标
math-word-problem-solving-on-math23kMWP-BERT
Accuracy (5-fold): 82.4
Accuracy (training-test): 84.7
math-word-problem-solving-on-mathqaMWP-BERT
Answer Accuracy: 76.6

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
MWP-BERT:面向数学应用题求解的数值增强预训练 | 论文 | HyperAI超神经