3 个月前

基于检索的对话系统中的细粒度后训练

基于检索的对话系统中的细粒度后训练

摘要

基于检索的对话系统在使用预训练语言模型(如基于变压器的双向编码器表示模型,BERT)时表现出卓越性能。在多轮对话中的响应选择任务中,BERT主要致力于学习包含多轮话语的上下文与响应之间的关联关系。然而,这种训练方式在考虑上下文内各轮话语之间相互关系方面仍显不足,导致模型难以全面理解对话的语义流,从而影响响应选择的准确性。为解决这一问题,本文提出一种新的细粒度后训练方法,以更好地体现多轮对话的特性。具体而言,该方法通过在对话会话中对每一对短上下文-响应进行训练,使模型能够学习到话语层级的交互关系。此外,引入一种新的训练目标——话语相关性分类,使模型能够有效捕捉对话话语之间的语义相关性与连贯性。实验结果表明,所提出的模型在三个基准数据集上均取得了显著优于现有方法的性能,达到了新的最先进水平。这充分证明,细粒度后训练方法在响应选择任务中具有高度有效性。

基准测试

基准方法指标
conversational-response-selection-on-douban-1BERT-FP
MAP: 0.644
MRR: 0.680
P@1: 0.512
R10@1: 0.324
R10@2: 0.542
R10@5: 0.870
conversational-response-selection-on-eBERT-FP
R10@1: 0.870
R10@2: 0.956
R10@5: 0.993
conversational-response-selection-on-rrsBERT-FP
MAP: 0.702
MRR: 0.712
P@1: 0.543
R10@1: 0.488
R10@2: 0.708
R10@5: 0.927
conversational-response-selection-on-rrs-1BERT-FP
NDCG@3: 0.609
NDCG@5: 0.709
conversational-response-selection-on-ubuntu-1BERT-FP
R10@1: 0.911
R10@2: 0.962
R10@5: 0.994

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
基于检索的对话系统中的细粒度后训练 | 论文 | HyperAI超神经