
摘要
由于客户端之间存在统计异质性,采用个性化联邦学习方法已成为成功部署基于联邦学习服务的必要选择。在各类个性化技术中,基于模型混合的个性化方法尤为受青睐,因为该方法能够在联邦学习过程中为每个客户端生成专属的个性化模型。然而,这类方法通常需要同时维护本地模型与联邦模型,其现有实现要么仅限于部分参数的交换,要么需额外进行本地更新,这两种方式均无法有效支持新加入的客户端,且对客户端的计算资源造成较大负担。近期研究发现,两个或多个独立的深度神经网络之间存在一个包含多种低损失解的连通子空间,这一现象具有重要启发意义。基于此,我们将该特性与基于模型混合的个性化联邦学习方法相结合,以提升个性化性能。为此,我们提出了SuPerFed——一种新型个性化联邦学习方法,该方法在权重空间中显式构建本地模型与联邦模型最优解之间的连接,从而实现两者间的相互增强。在多个基准数据集上的大量实验表明,所提方法在个性化性能和对真实服务中可能出现的异常场景的鲁棒性方面均实现了稳定提升,验证了其有效性与实用性。
代码仓库
vaseline555/superfed
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| personalized-federated-learning-on | SuPerFed-MM | Acc@1: 54.52 Acc@5: 84.27 |
| personalized-federated-learning-on | SuPerFed-LM | Acc@1: 54.52 Acc@5: 83.97 |
| personalized-federated-learning-on-cifar-10 | SuPerFed-LM | ACC@1-100Clients: 93.20 ACC@1-500Clients: 89.63 ACC@1-50Clients: 93.88 |
| personalized-federated-learning-on-cifar-10 | SuPerFed-MM | ACC@1-100Clients: 93.25 ACC@1-500Clients: 90.81 ACC@1-50Clients: 94.05 |
| personalized-federated-learning-on-cifar-100 | SuPerFed-MM | ACC@5-100Clients: 60.14 |
| personalized-federated-learning-on-cifar-100 | SuPerFed-LM | ACC@5-100Clients: 62.50 |
| personalized-federated-learning-on-femnist | SuPerFed-MM | Acc@1: 85.20 Acc@5: 99.16 |
| personalized-federated-learning-on-femnist | SuPerFed-LM | Acc@1: 83.36 Acc@5: 98.81 |
| personalized-federated-learning-on-mnist-1 | SuPerFed-MM | ACC@1-100Clients: 99.38 ACC@1-500Clients: 99.24 |
| personalized-federated-learning-on-mnist-1 | SuPerFed-LM | ACC@1-100Clients: 99.31 ACC@1-500Clients: 98.83 ACC@1-50Clients: 99.48 |
| personalized-federated-learning-on-tiny | SuPerFed-LM | ACC@5-200Clients: 49.29 |
| personalized-federated-learning-on-tiny | SuPerFed-MM | ACC@5-200Clients: 50.07 |