3 个月前

多任务学习中基于贝叶斯不确定性的梯度聚合

多任务学习中基于贝叶斯不确定性的梯度聚合

摘要

随着机器学习的重要性日益凸显,对并行执行多项推理任务的需求也不断增长。为每个任务单独运行一个专用模型在计算上成本高昂,因此多任务学习(Multi-Task Learning, MTL)受到了广泛关注。MTL的目标是训练一个单一模型,以高效地解决多个任务。当前优化MTL模型的常见方法是为每个任务计算一个梯度,然后将其聚合以获得综合的更新方向。然而,这类方法往往忽略了梯度维度中一个关键因素——敏感性。本文提出一种基于贝叶斯推断的新型梯度聚合方法。我们为每个任务特有的参数赋予概率分布,从而在任务梯度上诱导出相应的概率分布。这一额外信息使我们能够量化每个梯度维度中的不确定性,进而在梯度聚合过程中充分考虑该不确定性。我们在多种数据集上通过实验验证了该方法的有效性,结果表明其在多个任务上均取得了当前最优的性能表现。

代码仓库

ssi-research/bayesagg_mtl
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
multi-task-learning-on-chestx-ray14BayesAgg-MTL
delta_m: −14.96
multi-task-learning-on-qm9BayesAgg-MTL
∆m%: 53.7
multi-task-learning-on-utkfaceBayesAgg-MTL
delta_m: -2.23

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
多任务学习中基于贝叶斯不确定性的梯度聚合 | 论文 | HyperAI超神经