HyperAIHyperAI

Command Palette

Search for a command to run...

基于内存的Transformer的记忆高效随机方法

Vishwajit Kumar Vishnu; C. Chandra Sekhar

摘要

训练基于内存的 Transformer 模型通常需要大量的内存,并且效率较低。我们提出了一种新颖的两阶段训练机制和一种新的正则化技术,以提高基于内存的 Transformer 模型的训练效率,这些模型常用于长距离上下文问题。在实验中,我们将Transformer-XL作为基线模型,该模型是基于内存的 Transformer 模型之一。结果显示,我们的最终模型Skip Cross-head TransformerXL在字符级语言建模任务上超越了基线模型,参数量相当;而在词级语言建模任务上,参数量减少了近20%,但仍优于基线模型。我们所提出的方法无需额外的内存资源。此外,我们在BERT上也验证了所提出的正则化机制的有效性,在多个GLUE任务中,分数的标准差降低了约30%,性能表现相似。


用 AI 构建 AI

从创意到上线——通过免费 AI 协同编码、开箱即用的环境和最优惠的 GPU 价格,加速您的 AI 开发。

AI 协同编码
开箱即用的 GPU
最优定价

HyperAI Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
基于内存的Transformer的记忆高效随机方法 | 论文 | HyperAI超神经