4 个月前

基于内存的Transformer的记忆高效随机方法

基于内存的Transformer的记忆高效随机方法

摘要

训练基于内存的变压器模型通常需要大量的内存,并且效率较低。我们提出了一种新颖的两阶段训练机制和一种新的正则化技术,以提高基于内存的变压器模型的训练效率,这些模型常用于长距离上下文问题。在实验中,我们将Transformer-XL作为基线模型,该模型是基于内存的变压器模型之一。结果显示,我们的最终模型Skip Cross-head TransformerXL在字符级语言建模任务上超越了基线模型,参数量相当;而在词级语言建模任务上,参数量减少了近20%,但仍优于基线模型。我们所提出的方法无需额外的内存资源。此外,我们在BERT上也验证了所提出的正则化机制的有效性,在多个GLUE任务中,分数的标准差降低了约30%,性能表现相似。

基准测试

基准方法指标
language-modelling-on-enwiki8Skip Cross-Head Transformer-XL
Bit per Character (BPC): 1.033
Number of params: 41M
language-modelling-on-wikitext-103Skip Cross-Head Transformer-XL
Number of params: 122M
Test perplexity: 22.91
Validation perplexity: 21.87
paraphrase-identification-on-quora-question-1BERT + SCH attn
Val F1 Score: 88.436
paraphrase-identification-on-quora-question-1BERT + SCH attm
Val Accuracy: 91.422

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
基于内存的Transformer的记忆高效随机方法 | 论文 | HyperAI超神经