3 个月前

BERTweet:一种用于英文推文的预训练语言模型

BERTweet:一种用于英文推文的预训练语言模型

摘要

我们提出 BERTweet,这是首个面向英文推文(English Tweets)的大规模预训练语言模型。BERTweet 的架构与 BERT-base(Devlin 等,2019)保持一致,并采用 RoBERTa 的预训练方法(Liu 等,2019)进行训练。实验结果表明,BERTweet 在三项推文自然语言处理任务——词性标注(Part-of-speech tagging)、命名实体识别(Named-entity recognition)和文本分类(text classification)上,均显著优于强基准模型 RoBERTa-base 和 XLM-R-base(Conneau 等,2020),性能超越此前的最先进模型。为促进未来在推文数据上的研究与应用,我们已将 BERTweet 在 MIT 许可证下开源,其项目地址为:https://github.com/VinAIResearch/BERTweet。

代码仓库

基准测试

基准方法指标
named-entity-recognition-on-wnut-2016BERTweet
F1: 52.1
named-entity-recognition-on-wnut-2017BERTweet
F1: 56.5
part-of-speech-tagging-on-ritterBERTweet
Acc: 90.1
part-of-speech-tagging-on-tweebankBERTweet
Acc: 95.2
sentiment-analysis-on-tweetevalBERTweet
ALL: 67.9
Emoji: 33.4
Emotion: 79.3
Irony: 82.1
Offensive: 79.5
Sentiment: 73.4
Stance: 71.2

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
BERTweet:一种用于英文推文的预训练语言模型 | 论文 | HyperAI超神经