HyperAIHyperAI

Command Palette

Search for a command to run...

一种面向少样本NER的任务特定预训练多任务语义分解框架

摘要

少样本命名实体识别(Few-shot Named Entity Recognition, NER)的目标是在标注样本极为有限的情况下识别命名实体。以往的研究主要聚焦于优化传统的基于token的分类框架,而忽视了对NER数据自身特征信息的深入挖掘。为解决这一问题,本文提出一种基于联合任务特异性预训练的多任务语义分解框架(Multi-Task Semantic Decomposition Framework via Joint Task-specific Pre-training, MSDP),用于少样本NER任务。受基于示例学习(demonstration-based learning)与对比学习(contrastive learning)的启发,我们设计了两种新颖的预训练任务:基于示例的掩码语言建模(Demonstration-based Masked Language Modeling, MLM)与类别对比判别(Class Contrastive Discrimination)。这两种任务能够有效融入实体边界信息,并增强预训练语言模型(Pre-trained Language Models, PLMs)对实体的表征能力。在下游主任务中,我们引入一种结合语义分解方法的多任务联合优化框架,使模型能够融合两种不同层次的语义信息,从而提升实体分类性能。在两个少样本NER基准数据集上的实验结果表明,MSDP在各项指标上均显著优于现有强基线方法。大量消融实验与分析进一步验证了该框架的有效性与良好的泛化能力。


用 AI 构建 AI

从创意到上线——通过免费 AI 协同编码、开箱即用的环境和最优惠的 GPU 价格,加速您的 AI 开发。

AI 协同编码
开箱即用的 GPU
最优定价

HyperAI Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
一种面向少样本NER的任务特定预训练多任务语义分解框架 | 论文 | HyperAI超神经