4 个月前

拓展dropout的边界

拓展dropout的边界

摘要

我们证明,dropout训练最好被理解为同时对一组条件模型进行最大后验概率(MAP)估计,这些模型的目标函数本身由原始dropout目标函数下界限定。这一发现使我们在训练完成后可以从这组模型中选择任何一个模型,从而在需要大量正则化的语言建模任务中实现显著改进。该组模型包括计算采样dropout掩码的幂平均值的模型,以及具有比完全随机dropout目标函数更紧且更高的下界的较少随机子变体。我们认为,由于确定性子变体的下界等于其目标函数,并且在这些模型中是最高的,将其视为MC平均的良好近似是误导性的。实际上,确定性dropout是对真实目标函数的最佳可用近似。

代码仓库

deepmind/lamb
tf
GitHub 中提及

基准测试

基准方法指标
language-modelling-on-penn-treebank-word2-layer skip-LSTM + dropout tuning
Params: 24M
Test perplexity: 55.3
Validation perplexity: 57.1

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
拓展dropout的边界 | 论文 | HyperAI超神经