4 个月前

UCAS-IIE-NLP 在 SemEval-2023 任务 12 中:增强多语言 BERT 在低资源情感分析中的泛化能力

UCAS-IIE-NLP 在 SemEval-2023 任务 12 中:增强多语言 BERT 在低资源情感分析中的泛化能力

摘要

本文介绍了我们为SemEval-2023第12项任务设计的系统:非洲语言的情感分析。该任务面临的挑战是在低资源环境下缺乏标注数据和语言资源。为了缓解这些问题,我们提出了一种通用的多语言系统SACL-XLMR,用于低资源语言的情感分析。具体而言,我们设计了一种基于词典的多语言BERT模型,以促进语言适应和情感感知表示学习。此外,我们应用了监督对抗对比学习技术来学习情感传播结构化的表示,并增强模型的泛化能力。我们的系统在多语言和零样本情感分类子任务中取得了具有竞争力的结果,显著优于基线模型。特别是在官方排名中,该系统在零样本分类子任务中获得了第一名。大量实验验证了我们系统的有效性。

代码仓库

zerohd4869/sacl
pytorch
GitHub 中提及

基准测试

基准方法指标
zero-shot-sentiment-classification-onRandom
weighted-F1 score: 0.34
zero-shot-sentiment-classification-onXLM-R
weighted-F1 score: 0.399
zero-shot-sentiment-classification-onAfriBERTa
weighted-F1 score: 0.439
zero-shot-sentiment-classification-onSACL-XLMR
weighted-F1 score: 0.589
zero-shot-sentiment-classification-onAfroXLMR
weighted-F1 score: 0.561

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
UCAS-IIE-NLP 在 SemEval-2023 任务 12 中:增强多语言 BERT 在低资源情感分析中的泛化能力 | 论文 | HyperAI超神经