3 个月前

基于生成增强预训练的语义解析上下文表示学习

基于生成增强预训练的语义解析上下文表示学习

摘要

最近,研究人员对利用大规模文本语料库,通过自监督学习目标(如掩码语言模型,Masked Language Model, MLM)训练大规模神经语言模型,以学习适用于各类自然语言处理任务的上下文表征表现出浓厚兴趣。然而,基于一项初步研究,我们发现现有通用语言模型在应用于文本到SQL语义解析任务时存在三个主要问题:难以识别话语中提及的列名、无法从单元格值中推断出列名,以及难以生成复杂的SQL查询。为缓解上述问题,我们提出一种模型预训练框架——生成增强型预训练(Generation-Augmented Pre-training, GAP),该框架通过利用生成模型生成预训练数据,联合学习自然语言话语与表格模式(table schema)的表征。GAP模型在200万组话语-模式对以及3万组话语-模式-SQL三元组上进行训练,其中话语均由生成模型生成。实验结果表明,采用GAP模型作为表征编码器的神经语义解析器,在SPIDER和CRITERIA-TO-SQL两个基准测试上均取得了新的最先进性能(state-of-the-art)。

代码仓库

c4ai/gap-text2sql
pytorch
GitHub 中提及
awslabs/gap-text2sql
pytorch
GitHub 中提及
dmirlab-group/sadga
pytorch
GitHub 中提及

基准测试

基准方法指标
semantic-parsing-on-spiderRATSQL + GAP
Accuracy: 69.7
text-to-sql-on-spiderRATSQL + GAP
Exact Match Accuracy (Dev): 71.8

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
基于生成增强预训练的语义解析上下文表示学习 | 论文 | HyperAI超神经