4 个月前

MPC-BERT:用于多方对话理解的预训练语言模型

MPC-BERT:用于多方对话理解的预训练语言模型

摘要

近年来,各种用于多方对话(MPC)的神经模型在诸如对话对象识别、说话人识别和回应预测等多种任务上取得了显著的改进。然而,现有的多方对话方法通常单独表示对话者和话语,忽略了多方对话中固有的复杂结构,而这些结构可能提供关键的对话者和话语语义信息,有助于增强对话理解过程。为此,我们提出了MPC-BERT,这是一种预训练模型,旨在通过几个精心设计的自监督任务,在统一模型中学习“谁对谁说了什么”。具体而言,这些任务可以大致分为两类:(1) 对话者结构建模,包括回复对象识别、相同说话人搜索和指针一致性区分;(2) 话语语义建模,包括掩码共享话语恢复和共享节点检测。我们在三个下游任务上评估了MPC-BERT的表现,包括对话对象识别、说话人识别和回应选择。实验结果表明,MPC-BERT在两个基准测试的所有三个下游任务上均大幅超越了先前的方法,并达到了新的最先进水平。

代码仓库

JasonForJoy/MPC-BERT
官方
tf
GitHub 中提及

基准测试

基准方法指标
conversational-response-selection-on-ubuntu-3MPC-BERT
Accuracy: 63.64

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
MPC-BERT:用于多方对话理解的预训练语言模型 | 论文 | HyperAI超神经