摘要
配备梯度惩罚的摘要生成模型能够有效避免过拟合,提升模型稳定性。然而,传统的梯度惩罚方法存在两个问题:(i)需两次计算梯度,导致训练时间增加;(ii)扰动因子需通过反复试验才能确定最优值。为此,我们提出一种基于相似性计算的分步梯度惩罚模型(S2SGP)。首先,采用分步梯度惩罚机制应用于摘要生成模型,在不牺牲准确率的前提下显著缩短了训练时间;其次,引入参考摘要与候选摘要之间的相似性得分作为扰动因子,避免了对最优扰动值的反复试错。为验证所提方法的有效性,我们在四个摘要生成数据集上进行了实验,其中EDUSum数据集由我们新构建。实验结果表明,S2SGP显著降低了训练时间,且扰动因子无需反复调参。尤其在CSL数据集上的测试中,我们的模型相比基线方法在ROUGE-L指标上提升了超过2.4分。
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| abstractive-text-summarization-on-edusum | Seq2seq | ROUGE-1: 48.62 ROUGE-2: 32.32 ROUGE-L: 44.13 |
| abstractive-text-summarization-on-edusum | NEZHA | ROUGE-1: 63.91 ROUGE-2: 51.88 ROUGE-L: 61.00 |
| abstractive-text-summarization-on-edusum | BERT | ROUGE-1: 62.37 ROUGE-2: 50.70 ROUGE-L: 59.40 |
| abstractive-text-summarization-on-edusum | RoBERTa | ROUGE-1: 63.22 ROUGE-2: 51.34 ROUGE-L: 60.26 |
| abstractive-text-summarization-on-edusum | GP_Step_Sim | ROUGE-1: 64.48 ROUGE-2: 52.70 ROUGE-L: 61.91 |