3 个月前

BRIO:为抽象摘要生成带来秩序

BRIO:为抽象摘要生成带来秩序

摘要

抽象摘要模型通常采用最大似然估计(maximum likelihood estimation)进行训练,该方法假设目标分布为确定性(单点)分布,即理想模型应将全部概率质量集中于参考摘要。然而,这一假设在推理阶段可能导致性能下降,因为在实际应用中,模型需对多个与参考摘要存在偏差的系统生成摘要(候选摘要)进行比较。为解决此问题,我们提出一种新颖的训练范式,该范式假设目标分布为非确定性分布,使得不同候选摘要可根据其质量高低被分配相应的概率质量。实验结果表明,该方法在CNN/DailyMail(ROUGE-1达47.78)和XSum(ROUGE-1达49.07)数据集上均取得了新的最先进性能。进一步分析还显示,所提模型能够更准确地估计候选摘要的概率,且其概率值与摘要质量之间的相关性更强。

代码仓库

webis-de/summary-workbench
pytorch
GitHub 中提及
yixinl7/brio
官方
pytorch
GitHub 中提及
griff4692/edu-sum
jax
GitHub 中提及

基准测试

基准方法指标
abstractive-text-summarization-on-cnn-dailyBRIO
ROUGE-1: 47.78
ROUGE-2: 23.55
ROUGE-L: 44.57
text-summarization-on-x-sumBRIO
ROUGE-1: 49.07
ROUGE-2: 25.59
ROUGE-3: 40.40

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
BRIO:为抽象摘要生成带来秩序 | 论文 | HyperAI超神经