
摘要
在仇恨言论检测模型中,除了检测性能之外,还应重点关注偏差(bias)与可解释性(explainability)两个关键方面。仇恨言论的识别不能仅依赖于特定词汇的存在;模型必须具备类人的推理能力,并且其判断过程应具备可解释性。为提升模型在这两方面的表现,本文提出一种中间任务——掩码理由预测(Masked Rationale Prediction, MRP)。MRP任务旨在通过结合上下文标记与未被掩码的理由片段(即人类判断所依据的句子片段),预测被掩码的人类理由。通过该任务,模型能够基于理由学习推理能力,从而在偏差控制和可解释性方面实现对仇恨言论检测的稳健表现。实验结果表明,所提出的方法在多种评估指标上均达到当前最优水平,充分验证了其在仇恨言论检测任务中的有效性。
代码仓库
alatteaday/mrp_hate-speech-detection
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| hate-speech-detection-on-hatexplain | BERT-RP | AUROC: 0.853 Accuracy: 0.707 Macro F1: 0.693 |
| hate-speech-detection-on-hatexplain | BERT-MRP | AUROC: 0.862 Accuracy: 0.704 Macro F1: 0.699 |