3 个月前

BERT 是否理解情感?基于上下文与非上下文嵌入的对比以改进基于方面的情感分析模型

BERT 是否理解情感?基于上下文与非上下文嵌入的对比以改进基于方面的情感分析模型

摘要

在对句子中不同词语进行情感极性检测时,必须结合词语周围的上下文信息来理解其情感倾向。大规模预训练语言模型(如BERT)不仅能够编码文档中的词汇本身,还能同时捕捉词汇所处的上下文语境。这引出了两个关键问题:“预训练语言模型是否能自动编码每个词语的情感信息?”以及“是否可用于推断不同方面的情感极性?”在本研究中,我们通过实证表明:将BERT生成的上下文嵌入(contextual embedding)与通用词嵌入(generic word embedding)进行对比,即可有效推断情感极性。此外,我们进一步发现,若对基于BERT与通用词嵌入对比构建的模型进行部分权重微调(fine-tuning),该方法在基于方面的情感分类(Aspect-Based Sentiment Classification)数据集上可达到当前最优(state-of-the-art)的极性检测性能。

基准测试

基准方法指标
aspect-based-sentiment-analysis-on-semevalBERT-IL Finetuned
Restaurant (Acc): 86.20

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
BERT 是否理解情感?基于上下文与非上下文嵌入的对比以改进基于方面的情感分析模型 | 论文 | HyperAI超神经