4 个月前

EleAtt-RNN:在循环神经网络中增加注意力机制

EleAtt-RNN:在循环神经网络中增加注意力机制

摘要

循环神经网络(RNNs)能够建模复杂序列数据的时间依赖关系。通常情况下,现有的RNN结构倾向于控制当前和先前信息的贡献度。然而,对于输入向量中不同元素的重要性水平进行探索的问题常常被忽视。我们提出了一种简单而有效的元素级注意力门控机制(Element-wise-Attention Gate, EleAttG),可以轻松地添加到RNN块(例如,RNN层中的所有RNN神经元)中,以赋予RNN神经元注意能力。对于一个RNN块,EleAttG用于通过分配不同的重要性级别(即注意力)来自适应地调节每个输入元素/维度。我们将配备EleAttG的RNN块称为EleAtt-RNN块。与整体调节输入不同,EleAttG在细粒度上(即元素级)调节输入,并且这种调节是内容自适应的。所提出的EleAttG作为一种附加的基本单元,具有通用性,可以应用于任何RNN结构,例如标准RNN、长短期记忆网络(Long Short-Term Memory, LSTM)或门控循环单元(Gated Recurrent Unit, GRU)。我们通过将其应用于不同的任务来证明所提出的EleAtt-RNN的有效性,这些任务包括基于骨架的数据和RGB视频的动作识别、手势识别以及顺序MNIST分类。实验结果表明,在RNN块中加入通过EleAttGs实现的注意机制显著提升了RNN的能力。

基准测试

基准方法指标
skeleton-based-action-recognition-on-n-uclaEleAtt-GRU (aug.)
Accuracy: 90.7%
skeleton-based-action-recognition-on-ntu-rgbdEleAtt-GRU (aug.)
Accuracy (CS): 80.7
Accuracy (CV): 88.4
skeleton-based-action-recognition-on-sysu-3dEleAtt-GRU (aug.)
Accuracy: 85.7%

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
EleAtt-RNN:在循环神经网络中增加注意力机制 | 论文 | HyperAI超神经