Yen-Ting LinAlexandros PapangelisSeokhwan KimSungjin LeeDevamanyu HazarikaMahdi NamazifarDi JinYang LiuDilek Hakkani-Tur

摘要
本研究聚焦于面向意图识别任务的上下文内数据增强方法。我们发现,仅通过大规模预训练语言模型(PLM)的上下文提示进行数据增强,并不能有效提升模型性能。为此,本文提出一种基于PLM与点对点V信息(Pointwise V-information, PVI)的新型方法。PVI是一种能够衡量单个数据样本对模型训练价值的指标。所提方法首先在少量种子训练数据上微调PLM,随后生成对应于特定意图的新语句(即合成数据)。接着,基于PVI设计意图感知的过滤机制,剔除对下游意图分类器无益的样本。该方法充分利用了大规模语言模型的强大表达能力,生成多样化的训练数据。实验结果表明,在少样本设置下,该方法生成的合成训练数据在三个具有挑战性的意图识别数据集上均达到当前最优性能(5-shot设置下平均提升1.28%,10-shot设置下平均提升1.18%);在全样本设置下,性能与现有最先进方法相当(平均差距不超过0.01%绝对值)。
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| intent-detection-on-banking77 | RoBERTa-Large + ICDA | Accuracy (%): 94.42 |
| intent-detection-on-banking77-10-shot | RoBERTa-Large + ICDA | Accuracy (%): 89.79 |
| intent-detection-on-banking77-5-shot | RoBERTa-Large + ICDA | Accuracy (%): 84.01 |
| intent-detection-on-clinc150 | RoBERTa-Large + ICDA | Accuracy (%): 97.12 |
| intent-detection-on-clinc150-10-shot | RoBERTa-Large + ICDA | Accuracy (%): 94.84 |
| intent-detection-on-clinc150-5-shot | RoBERTa-Large + ICDA | Accuracy (%): 92.62 |
| intent-detection-on-hwu64 | RoBERTa-Large + ICDA | Accuracy (%): 92.57 |
| intent-detection-on-hwu64-10-shot | RoBERTa-Large + ICDA | Accuracy (%): 87.41 |
| intent-detection-on-hwu64-5-shot | RoBERTa-Large + ICDA | Accuracy (%): 82.45 |
| text-classification-on-banking77 | RoBERTa-Large + ICDA | Accuracy: 94.42 |