
摘要
基于方面的情感分析(Aspect-Based Sentiment Analysis, ABSA)旨在预测特定方面的情感极性,是情感分析领域中一项细粒度的任务。以往研究表明,句法信息(如依存句法树)能够有效提升ABSA的性能。近年来,预训练模型(Pre-trained Models, PTMs)在ABSA任务中也展现出显著效果。因此,一个自然的问题随之产生:预训练模型是否已蕴含足够丰富的句法信息,使得仅依赖PTMs即可构建性能优异的ABSA模型?本文首先在多个主流ABSA模型上,对比了由预训练模型生成的诱导句法树(induced trees)与传统依存句法解析器生成的句法树,结果表明,微调后的RoBERTa(Fine-Tuned RoBERTa, FT-RoBERTa)所生成的诱导树在性能上优于解析器提供的依存树。进一步的分析实验显示,FT-RoBERTa生成的诱导树具有更强的面向情感词的结构特征,更有利于ABSA任务的执行。实验还表明,仅基于纯RoBERTa的模型在跨四种语言的六个数据集上,其性能可超越或接近此前的最先进水平(SOTA),这归因于模型在微调过程中隐式地融入了面向任务的句法信息。
代码仓库
ROGERDJQ/RoBERTaABSA
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| aspect-based-sentiment-analysis-on-semeval | RoBERTa+MLP | Laptop (Acc): 83.78 Mean Acc (Restaurant + Laptop): 85.58 Restaurant (Acc): 87.37 |