
摘要
在多任务学习(Multi-task Learning, MTL)中,通过联合训练一个模型,使其能够同时对多个任务进行预测。联合训练能够降低计算成本并提升数据利用效率;然而,由于不同任务之间的梯度可能存在冲突,联合模型的性能通常低于其对应的单任务模型。为缓解这一问题,一种常用方法是采用特定启发式策略,将各任务的梯度合并为一个联合更新方向。本文提出将梯度组合过程视为一场讨价还价博弈(bargaining game),其中各任务通过协商达成关于参数更新方向的一致意见。在一定假设条件下,该讨价还价问题具有唯一解,即纳什讨价还价解(Nash Bargaining Solution)。我们提出将该解作为多任务学习的一种原则性方法。基于此,本文设计了一种新的多任务优化算法——Nash-MTL,并推导了其收敛性的理论保证。实验结果表明,Nash-MTL在多个不同领域的多任务学习基准测试中均取得了当前最优(state-of-the-art)的性能表现。
代码仓库
avivnavon/nash-mtl
官方
pytorch
GitHub 中提及
cranial-xix/famo
pytorch
GitHub 中提及
autumn9999/go4align
pytorch
GitHub 中提及
torchjd/torchjd
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| multi-task-learning-on-cityscapes | Nash-MTL | mIoU: 75.41 |
| multi-task-learning-on-nyuv2 | Nash-MTL | Mean IoU: 40.13 |
| multi-task-learning-on-qm9 | Nash-MTL | ∆m%: 62.0 |