4 个月前

响应选择模型真的知道下一步吗?多轮对话中的语句操控策略

响应选择模型真的知道下一步吗?多轮对话中的语句操控策略

摘要

本文研究了在基于检索的多轮对话系统中,根据用户和系统的对话历史选择最优响应的任务。近年来,预训练语言模型(如BERT、RoBERTa和ELECTRA)在各种自然语言处理任务中取得了显著的改进。类似地,通过将这些任务表述为对话-响应二分类任务,也可以利用此类语言模型来解决响应选择问题。尽管现有方法使用这种方法成功获得了最先进的结果,但我们观察到以这种方式训练的语言模型往往基于历史和候选响应的相关性进行预测,而忽略了多轮对话系统的顺序特性。这表明仅靠响应选择任务不足以学习话语之间的时序依赖关系。为此,我们提出了话语操作策略(Utterance Manipulation Strategies, UMS)来解决这一问题。具体而言,UMS包括几种策略(即插入、删除和搜索),这些策略有助于响应选择模型保持对话的一致性。此外,UMS是自监督方法,不需要额外的标注数据,因此可以轻松集成到现有的方法中。广泛的跨语言和模型评估显示,UMS在教授对话一致性方面非常有效,使得多个公开基准数据集上的模型性能显著超越当前最先进的水平。

代码仓库

taesunwhang/UMS-ResSel
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
conversational-response-selection-on-douban-1UMS_BERT+
MAP: 0.625
MRR: 0.664
P@1: 0.499
R10@1: 0.318
R10@2: 0.482
R10@5: 0.858
conversational-response-selection-on-eUMS_BERT+
R10@1: 0.762
R10@2: 0.905
R10@5: 0.986
conversational-response-selection-on-ubuntu-1UMS_BERT+
R10@1: 0.875
R10@2: 0.942
R10@5: 0.988

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
响应选择模型真的知道下一步吗?多轮对话中的语句操控策略 | 论文 | HyperAI超神经