
摘要
个性化联邦学习旨在为多个客户端训练机器学习模型,每个客户端拥有各自的数据分布。其目标是在考虑客户端间数据差异的同时,以协作方式训练个性化模型,并降低通信开销。本文提出一种基于超网络(hypernetworks)的新方法,称为pFedHN(个性化联邦超网络),用于解决该问题。在该方法中,一个中心化的超网络模型被训练以生成一组模型,每个客户端对应一个专属模型。该架构在客户端之间实现了高效的参数共享,同时保留了生成独特且多样化的个性化模型的能力。此外,由于超网络的参数无需传输,该方法将通信开销与可训练模型规模解耦,显著降低了通信成本。我们在多个个性化联邦学习任务中对pFedHN进行了实证测试,结果表明其性能优于现有方法。最后,由于超网络能够在客户端之间共享信息,我们进一步证明,pFedHN在面对训练过程中未见过的、分布不同的新客户端时,具备更强的泛化能力。
代码仓库
AvivSham/pFedHN
官方
pytorch
GitHub 中提及
KarhouTam/FL-bench
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| personalized-federated-learning-on-cifar-10 | pFedHN-PC | ACC@1-100Clients: 88.09 ACC@1-10Clients: 92.47 ACC@1-500Clients: 83.2 ACC@1-50Clients: 90.08 |
| personalized-federated-learning-on-cifar-10 | pFedHN | ACC@1-100Clients: 87.97 ACC@1-10Clients: 90.83 ACC@1-50Clients: 88.38 |
| personalized-federated-learning-on-cifar-100 | pFedHN-PC | ACC@1-100Clients: 52.40 ACC@1-10Clients: 68.15 ACC@1-500: 34.1 ACC@1-50Clients: 60.17 |
| personalized-federated-learning-on-cifar-100 | pFedHN | ACC@1-100Clients: 53.24 ACC@1-10Clients: 65.74 ACC@1-50Clients: 59.46 |
| personalized-federated-learning-on-omniglot | pFedHN | ACC@1-50Clients: 72.03 |
| personalized-federated-learning-on-omniglot | pFedHN-PC | ACC@1-50Clients: 81.89 |