3 个月前

基于超网络的个性化联邦学习

基于超网络的个性化联邦学习

摘要

个性化联邦学习旨在为多个客户端训练机器学习模型,每个客户端拥有各自的数据分布。其目标是在考虑客户端间数据差异的同时,以协作方式训练个性化模型,并降低通信开销。本文提出一种基于超网络(hypernetworks)的新方法,称为pFedHN(个性化联邦超网络),用于解决该问题。在该方法中,一个中心化的超网络模型被训练以生成一组模型,每个客户端对应一个专属模型。该架构在客户端之间实现了高效的参数共享,同时保留了生成独特且多样化的个性化模型的能力。此外,由于超网络的参数无需传输,该方法将通信开销与可训练模型规模解耦,显著降低了通信成本。我们在多个个性化联邦学习任务中对pFedHN进行了实证测试,结果表明其性能优于现有方法。最后,由于超网络能够在客户端之间共享信息,我们进一步证明,pFedHN在面对训练过程中未见过的、分布不同的新客户端时,具备更强的泛化能力。

代码仓库

AvivSham/pFedHN
官方
pytorch
GitHub 中提及
KarhouTam/FL-bench
pytorch
GitHub 中提及

基准测试

基准方法指标
personalized-federated-learning-on-cifar-10pFedHN-PC
ACC@1-100Clients: 88.09
ACC@1-10Clients: 92.47
ACC@1-500Clients: 83.2
ACC@1-50Clients: 90.08
personalized-federated-learning-on-cifar-10pFedHN
ACC@1-100Clients: 87.97
ACC@1-10Clients: 90.83
ACC@1-50Clients: 88.38
personalized-federated-learning-on-cifar-100pFedHN-PC
ACC@1-100Clients: 52.40
ACC@1-10Clients: 68.15
ACC@1-500: 34.1
ACC@1-50Clients: 60.17
personalized-federated-learning-on-cifar-100pFedHN
ACC@1-100Clients: 53.24
ACC@1-10Clients: 65.74
ACC@1-50Clients: 59.46
personalized-federated-learning-on-omniglotpFedHN
ACC@1-50Clients: 72.03
personalized-federated-learning-on-omniglotpFedHN-PC
ACC@1-50Clients: 81.89

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
基于超网络的个性化联邦学习 | 论文 | HyperAI超神经