3 个月前

TENER:面向命名实体识别的Transformer编码器适配方法

TENER:面向命名实体识别的Transformer编码器适配方法

摘要

双向长短期记忆网络(BiLSTM)已被广泛用作解决命名实体识别(NER)任务模型中的编码器。近年来,由于具备并行计算能力以及优异的性能表现,Transformer架构在各类自然语言处理(NLP)任务中得到了广泛应用。然而,Transformer在NER任务中的表现相较于其在其他NLP任务中的表现仍显不足。本文提出TENER,一种采用改进型Transformer编码器的NER架构,用于建模字符级特征与词级特征。通过引入具备方向感知与相对距离感知的注意力机制,以及无缩放注意力机制,我们证明了经过适配的Transformer编码器在NER任务中的表现可与在其他NLP任务中相当,具备同等有效性。

代码仓库

jaykay233/TF2.0-TENER
tf
GitHub 中提及
fastnlp/TENER
官方
pytorch
GitHub 中提及
GeremWD/dlnlp_project
pytorch
GitHub 中提及
HIT-SCIR/ltp
pytorch
GitHub 中提及
dhiraa/tener
tf
GitHub 中提及

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
TENER:面向命名实体识别的Transformer编码器适配方法 | 论文 | HyperAI超神经