3 个月前

一种面向少样本NER的任务特定预训练多任务语义分解框架

一种面向少样本NER的任务特定预训练多任务语义分解框架

摘要

少样本命名实体识别(Few-shot Named Entity Recognition, NER)的目标是在标注样本极为有限的情况下识别命名实体。以往的研究主要聚焦于优化传统的基于token的分类框架,而忽视了对NER数据自身特征信息的深入挖掘。为解决这一问题,本文提出一种基于联合任务特异性预训练的多任务语义分解框架(Multi-Task Semantic Decomposition Framework via Joint Task-specific Pre-training, MSDP),用于少样本NER任务。受基于示例学习(demonstration-based learning)与对比学习(contrastive learning)的启发,我们设计了两种新颖的预训练任务:基于示例的掩码语言建模(Demonstration-based Masked Language Modeling, MLM)与类别对比判别(Class Contrastive Discrimination)。这两种任务能够有效融入实体边界信息,并增强预训练语言模型(Pre-trained Language Models, PLMs)对实体的表征能力。在下游主任务中,我们引入一种结合语义分解方法的多任务联合优化框架,使模型能够融合两种不同层次的语义信息,从而提升实体分类性能。在两个少样本NER基准数据集上的实验结果表明,MSDP在各项指标上均显著优于现有强基线方法。大量消融实验与分析进一步验证了该框架的有效性与良好的泛化能力。

代码仓库

dongguanting/msdp-fewshot-ner
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
few-shot-ner-on-few-nerd-interMSDP
10 way 1~2 shot: 69.78±0.31
10 way 5~10 shot: 81.50±0.71
5 way 1~2 shot: 76.86±0.22
5 way 5~10 shot: 84.78±0.69
few-shot-ner-on-few-nerd-intraMSDP
10 way 1~2 shot: 47.13±0.69
10 way 5~10 shot: 64.69±0.51
5 way 1~2 shot: 56.35±0.28
5 way 5~10 shot: 66.80±0.78

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
一种面向少样本NER的任务特定预训练多任务语义分解框架 | 论文 | HyperAI超神经