HyperAIHyperAI

Command Palette

Search for a command to run...

基于Transformer预训练的跨度联合实体与关系抽取

Markus Eberts Adrian Ulges

摘要

我们提出了SpERT,一种基于跨度的联合实体与关系抽取的注意力模型。其核心贡献在于对BERT嵌入进行轻量级推理,该方法兼具实体识别与过滤功能,并采用局部化、无标记(marker-free)的上下文表示进行关系分类。模型通过强负样本进行训练,这些负样本可在单次BERT前向传播中高效提取,从而支持对句子中所有可能跨度的全面搜索。消融实验表明,预训练、强负样本采样以及局部化上下文表示均显著提升了模型性能。在多个联合实体与关系抽取数据集上,SpERT的F1分数相较以往方法最高提升达2.6%。


用 AI 构建 AI

从创意到上线——通过免费 AI 协同编码、开箱即用的环境和最优惠的 GPU 价格,加速您的 AI 开发。

AI 协同编码
开箱即用的 GPU
最优定价

HyperAI Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供