3 个月前

通过数据重叠与最优批量大小缓解序列信息丢失

通过数据重叠与最优批量大小缓解序列信息丢失

摘要

在序列建模任务中,标记(token)的顺序至关重要,但由于序列被离散化为数据点,这一顺序信息可能部分丢失。本文研究了某些标记对被包含在数据点中,而其他标记对未被包含所导致的不平衡现象。我们将其称为标记顺序不平衡(Token Order Imbalance, TOI),并揭示了这种部分序列信息的损失与系统整体性能下降之间的关联,该现象在文本和语音处理任务中均存在。为此,我们提出一种机制——缓解TOI(Alleviated TOI),通过迭代重叠数据点的标记组成,以充分利用完整的标记顺序信息。对于循环神经网络,我们采用质数作为批量大小(batch size),以避免在从重叠数据点构建批次时产生冗余。实验结果表明,所提出的方法在文本与语音相关任务中均达到了当前最优(state-of-the-art)性能。

代码仓库

nkcr/overlap-ml
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
language-modelling-on-wikitext-103AWD-LSTM-MoS + ATOI
Test perplexity: 32.85
Validation perplexity: 31.92
language-modelling-on-wikitext-2AWD-LSTM + ATOI
Number of params: 33M
Test perplexity: 64.73
Validation perplexity: 67.47

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
通过数据重叠与最优批量大小缓解序列信息丢失 | 论文 | HyperAI超神经