3 个月前

AliEdalat 在 SemEval-2022 任务4中的工作:基于微调语言模型、BERT+BiGRU 以及集成模型的居高临下与傲慢语言检测

AliEdalat 在 SemEval-2022 任务4中的工作:基于微调语言模型、BERT+BiGRU 以及集成模型的居高临下与傲慢语言检测

摘要

本文介绍了AliEdalat团队在SemEval-2022任务4:施惠性与居高临下语言(Patronizing and Condescending Language, PCL)检测中的方法与实验结果。该任务旨在识别文本中PCL的存在及其具体类别,以防止对弱势群体的进一步歧视。我们采用三种基础模型的集成方法来检测PCL的存在:微调后的BigBird、微调后的MPNet以及BERT+BiGRU模型。然而,由于过拟合问题,该集成模型的表现劣于基线模型,F1分数仅为0.3031。为此,我们提出了一种新的解决方案以克服提交模型存在的问题。我们对PCL的不同类别进行独立建模与检测。针对每一类PCL,我们将其视为一个独立的检测任务,采用微调后的RoBERTa模型替代原有的BERT+BiGRU结构。在PCL类别检测任务中,我们的模型表现优于基线模型,取得了0.2531的F1分数。此外,我们还提出了两种针对特定PCL类别的新模型,其性能均优于原始提交的模型。

基准测试

基准方法指标
binary-condescension-detection-on-dpmensemble model (BigBird and MPNet)
F1-score: 55.1
multi-label-condescension-detection-on-dpmensemble model (BigBird, MPNet)
Macro-F1: 31.6

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
AliEdalat 在 SemEval-2022 任务4中的工作:基于微调语言模型、BERT+BiGRU 以及集成模型的居高临下与傲慢语言检测 | 论文 | HyperAI超神经