3 个月前

BertGCN:通过结合GCN与BERT实现归纳式文本分类

BertGCN:通过结合GCN与BERT实现归纳式文本分类

摘要

在本工作中,我们提出了一种名为BertGCN的模型,该模型将大规模预训练与归纳式学习相结合,用于文本分类任务。BertGCN在数据集上构建了一个异构图结构,并利用BERT的表示将文档建模为图中的节点。通过在BertGCN框架内联合训练BERT模块与图卷积网络(GCN)模块,该模型能够融合两者的优点:一方面利用大规模预训练所具备的对海量原始数据的建模能力,另一方面通过图卷积传播标签信息,实现对训练数据与未标记测试数据的联合表示学习,即归纳式学习。实验结果表明,BertGCN在多个文本分类数据集上均取得了当前最优(SOTA)的性能表现。代码已开源,可通过 https://github.com/ZeroRin/BertGCN 获取。

代码仓库

ZeroRin/BertGCN
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
text-classification-on-20-newsgroupsRoBERTaGCN
Accuracy: 89.5
text-classification-on-20newsRoBERTaGCN
Accuracy: 89.5
text-classification-on-mrRoBERTaGCN
Accuracy: 89.7
text-classification-on-ohsumedRoBERTaGCN
Accuracy: 72.8
text-classification-on-r521-6 BertGCN
Accuracy: 96.6
text-classification-on-r8RoBERTaGCN
Accuracy: 98.2

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
BertGCN:通过结合GCN与BERT实现归纳式文本分类 | 论文 | HyperAI超神经