
摘要
抽象摘要模型通常采用最大似然估计(maximum likelihood estimation)进行训练,该方法假设目标分布为确定性(单点)分布,即理想模型应将全部概率质量集中于参考摘要。然而,这一假设在推理阶段可能导致性能下降,因为在实际应用中,模型需对多个与参考摘要存在偏差的系统生成摘要(候选摘要)进行比较。为解决此问题,我们提出一种新颖的训练范式,该范式假设目标分布为非确定性分布,使得不同候选摘要可根据其质量高低被分配相应的概率质量。实验结果表明,该方法在CNN/DailyMail(ROUGE-1达47.78)和XSum(ROUGE-1达49.07)数据集上均取得了新的最先进性能。进一步分析还显示,所提模型能够更准确地估计候选摘要的概率,且其概率值与摘要质量之间的相关性更强。
代码仓库
webis-de/summary-workbench
pytorch
GitHub 中提及
yixinl7/brio
官方
pytorch
GitHub 中提及
griff4692/edu-sum
jax
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| abstractive-text-summarization-on-cnn-daily | BRIO | ROUGE-1: 47.78 ROUGE-2: 23.55 ROUGE-L: 44.57 |
| text-summarization-on-x-sum | BRIO | ROUGE-1: 49.07 ROUGE-2: 25.59 ROUGE-3: 40.40 |