4 个月前

AUFormer:参数高效的面部动作单元检测器

AUFormer:参数高效的面部动作单元检测器

摘要

面部动作单元(AU)是情感计算领域中的一个重要概念,而AU检测一直是研究热点。现有的方法由于在稀缺的AU注释数据集上使用大量可学习参数,或者过度依赖大量的相关额外数据,导致过拟合问题。参数高效迁移学习(PETL)提供了一种有前景的范式来解决这些挑战,但其现有方法缺乏针对AU特性的设计。因此,我们创新性地将PETL范式应用于AU检测,引入了AUFormer并提出了一种新颖的知识混合专家(MoKE)协作机制。首先,每个特定于某个AU的MoKE通过最少的可学习参数整合个性化的多尺度和关联知识。然后,MoKE与其他专家组内的MoKE协作,获取聚合信息并将其注入冻结的视觉变换器(ViT),以实现高效的AU检测。此外,我们设计了一种截距缩减的难度感知加权非对称损失函数(MDWA-Loss),该损失函数可以促使模型更加关注激活的AUs,区分未激活AUs的难度,并丢弃潜在的错误标记样本。从多个角度进行的广泛实验,包括域内、跨域、数据效率和微表情域实验,均证明了AUFormer在无需额外相关数据的情况下具有最先进的性能和强大的泛化能力。AUFormer的代码可在以下地址获取:https://github.com/yuankaishen2001/AUFormer。

代码仓库

基准测试

基准方法指标
facial-action-unit-detection-on-bp4dAUFormer
Average F1: 66.2
facial-action-unit-detection-on-disfaAUFormer
Average F1: 66.4

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
AUFormer:参数高效的面部动作单元检测器 | 论文 | HyperAI超神经