3 个月前

领域无关的自适应方法优势

领域无关的自适应方法优势

摘要

通过对自适应优化方法的简化分析,我们提出了AvaGrad这一新型优化器。当其自适应能力被合理调优时,AvaGrad在视觉任务上的表现优于SGD。我们发现,该方法的有效性部分源于学习率与自适应能力之间的解耦,这一特性显著简化了超参数搜索过程。基于这一观察,我们进一步证明,尽管违背了传统认知,只要充分考虑Adam优化器中学习率与自适应性之间的耦合关系,Adam同样可以在视觉任务上超越SGD。在实际应用中,AvaGrad在图像分类(CIFAR、ImageNet)和字符级语言建模(Penn Treebank)等任务上,其泛化准确率达到了现有优化器(无论是SGD还是自适应优化器)所能实现的最佳水平。

代码仓库

lolemacs/avagrad
官方
pytorch
GitHub 中提及

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
领域无关的自适应方法优势 | 论文 | HyperAI超神经