4 个月前

用于文本连贯性评估的Transformer模型

用于文本连贯性评估的Transformer模型

摘要

连贯性是文本质量的重要方面,对于确保其可读性至关重要。在诸如摘要生成、问答系统、机器翻译、问题生成、表格转文本等文本生成系统中,输出内容的连贯性尤为关键。自动连贯性评分模型在作文评分或提供写作反馈方面也具有重要作用。大量先前的研究工作利用了基于实体的方法、句法模式、篇章关系,以及最近的传统深度学习架构来评估文本的连贯性。然而,这些研究存在一些缺点,如无法处理长距离依赖关系、词汇表外的词语或建模序列信息的能力不足。我们认为,连贯性评估是一项认知复杂的任务,需要更深层次的模型,并且可以从其他相关任务中受益。因此,在本文中,我们提出了四种不同的基于Transformer的架构来完成这一任务:纯Transformer(vanilla Transformer)、层次Transformer(hierarchical Transformer)、多任务学习模型(multi-task learning-based model)和基于事实输入表示的模型(model with fact-based input representation)。我们在多个领域的四个不同连贯性评估任务上使用流行基准数据集进行实验,结果表明我们的模型取得了最先进的性能,在很大程度上超过了现有模型。

基准测试

基准方法指标
coherence-evaluation-on-gcdc-rst-accuracyMTL with Transformer
Accuracy: 61.0

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
用于文本连贯性评估的Transformer模型 | 论文 | HyperAI超神经