4 个月前

ViT5:用于越南语生成的预训练文本到文本Transformer模型

ViT5:用于越南语生成的预训练文本到文本Transformer模型

摘要

我们介绍了ViT5,这是一种基于Transformer的越南语预训练编码器-解码器模型。通过类似于T5的自监督预训练方法,ViT5在大量高质量且多样化的越南语文本语料库上进行了训练。我们在两个下游文本生成任务上对ViT5进行了基准测试:抽象文本摘要(Abstractive Text Summarization)和命名实体识别(Named Entity Recognition)。尽管由于丰富的数据资源,英语的抽象文本摘要已经得到了广泛研究,但针对越南语这一资源较少的语言,该任务的研究却相对匮乏。在这项工作中,我们对越南语的抽象文本摘要和命名实体识别进行了详尽的实验,验证了ViT5与其他多种基于Transformer的预训练编码器-解码器模型相比的性能。实验结果表明,ViT5在越南语文本摘要任务中显著优于现有模型,并达到了当前最佳水平。在命名实体识别任务中,ViT5的表现与之前基于预训练编码器的Transformer模型的最佳结果相当。进一步分析显示,在不同设置下,自监督预训练过程中上下文长度的重要性对下游任务性能的影响。

代码仓库

vietai/vit5
官方
jax
GitHub 中提及

基准测试

基准方法指标
abstractive-text-summarization-on-vietnewsViT5 large
Rouge-1: 63.37
Rouge-2: 34.24
Rouge-L: 43.55
abstractive-text-summarization-on-vietnewsViT5 base
Rouge-1: 62.77
Rouge-2: 33.16
Rouge-L: 42.75
named-entity-recognition-in-vietnamese-on-1ViT5 base
F1 (%): 94.5

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
ViT5:用于越南语生成的预训练文本到文本Transformer模型 | 论文 | HyperAI超神经