3 个月前

基于高斯过程的个性化联邦学习

基于高斯过程的个性化联邦学习

摘要

联邦学习旨在通过有限的跨客户端通信,在客户端设备上训练出性能良好的全局模型。个性化联邦学习(Personalized Federated Learning, PFL)在此基础上进一步拓展,通过学习个性化模型来应对客户端间的数据异构性问题。该场景中的一个关键挑战在于:尽管每个客户端的数据具有独特性且通常规模有限,仍需实现有效的跨客户端学习。为此,本文提出 pFedGP,一种基于高斯过程(Gaussian Processes, GPs)与深度核学习(deep kernel learning)的PFL解决方案。高斯过程因其贝叶斯特性,在小样本数据场景下表现出强大的表达能力,适用于低数据环境。然而,将高斯过程应用于联邦学习面临多重挑战:其性能高度依赖于优质核函数的获取,而核函数的学习通常需要大规模训练数据。为此,我们提出在所有客户端间共享一个由神经网络参数化的核函数,并为每个客户端配备独立的个性化高斯过程分类器。为进一步提升性能,我们引入两种新颖方法以引入诱导点(inducing points),其中一种有助于在低数据条件下增强模型泛化能力,另一种则显著降低计算开销。我们推导出针对新客户端的PAC-Bayes泛化界,并通过实验验证该界能够提供非平凡(non-vacuous)的泛化保证。在CIFAR-10、CIFAR-100和CINIC-10等标准PFL基准数据集上的大量实验,以及在输入噪声环境下的新型学习设置中,pFedGP均展现出校准良好的预测性能,显著优于基线方法,最高可实现21%的准确率提升。

代码仓库

IdanAchituve/pFedGP
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
personalized-federated-learning-on-cifar-10pFedGP
ACC@1-100Clients: 88.8
ACC@1-500Clients: 87.6
ACC@1-50Clients: 89.2
personalized-federated-learning-on-cifar-10pFedGP-IP-data
ACC@1-100Clients: 87.4
ACC@1-500Clients: 86.9
ACC@1-50Clients: 88.6
personalized-federated-learning-on-cifar-10pFedGP-IP-compute
ACC@1-100Clients: 88.8
ACC@1-500Clients: 86.8
ACC@1-50Clients: 89.9
personalized-federated-learning-on-cifar-100pFedGP-IP-compute
ACC@1-100Clients: 59.8
ACC@1-500: 49.2
ACC@1-50Clients: 61.2
personalized-federated-learning-on-cifar-100pFedGP-IP-data
ACC@1-100Clients: 58.5
ACC@1-500: 55.7
ACC@1-50Clients: 60.2
personalized-federated-learning-on-cifar-100pFedGP
ACC@1-100Clients: 61.3
ACC@1-500: 50.6
ACC@1-50Clients: 63.3

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供