4 个月前

如何训练你的MAML

如何训练你的MAML

摘要

近年来,少样本学习领域取得了显著进展。这些进展大多来自于将少样本学习视为元学习问题。模型无关元学习(Model-Agnostic Meta-Learning, MAML)目前是通过元学习实现少样本学习的最佳方法之一。MAML 方法简单、优雅且非常强大,但同时也存在多种问题,例如对神经网络架构非常敏感,经常导致训练过程中的不稳定,需要繁琐的超参数搜索以稳定训练并实现高泛化性能,并且在训练和推理阶段都具有很高的计算成本。本文中,我们提出了对 MAML 的若干改进措施,不仅稳定了系统,还大幅提升了其泛化性能、收敛速度和降低了计算开销,我们将这种方法称为 MAML++。

代码仓库

gebob19/REPTILE-Metalearning
pytorch
GitHub 中提及
Tikquuss/meta_XLM
pytorch
GitHub 中提及
lgcollins/tr-maml
pytorch
GitHub 中提及
hoyeoplee/pytorch-maml
pytorch
GitHub 中提及
JWSoh/MZSR
tf
GitHub 中提及
gebob19/cscd94_metalearning
pytorch
GitHub 中提及
dkalpakchi/ReproducingSCAPytorch
pytorch
GitHub 中提及
gebob19/cscd94-metalearning
pytorch
GitHub 中提及

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
如何训练你的MAML | 论文 | HyperAI超神经