
摘要
本文研究了预训练语言模型(如BERT)所生成的上下文感知嵌入在端到端情感分析(E2E-ABSA)任务中的建模能力。具体而言,我们构建了一系列简单但具有启发性的神经网络基线模型来应对E2E-ABSA任务。实验结果表明,即使仅采用简单的线性分类层,基于BERT的架构仍能超越现有最先进方法的性能。此外,我们通过一致地使用预留验证集进行模型选择,对对比实验进行了标准化处理,这一做法在以往研究中普遍被忽视。因此,本工作可作为E2E-ABSA任务中基于BERT的基准参考。
代码仓库
lixin4ever/BERT-E2E-ABSA
官方
pytorch
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| aspect-based-sentiment-analysis-on-semeval-5 | BERT-E2E-ABSA | F1: 61.12 |
| aspect-based-sentiment-analysis-on-semeval-6 | BERT-E2E-ABSA | F1: 61.12 |
| sentiment-analysis-on-semeval-2014-task-4 | BERT-E2E-ABSA | F1: 61.12 |