4 个月前

见多识广:基于协同注意力机制的无监督视频对象分割暹罗网络

见多识广:基于协同注意力机制的无监督视频对象分割暹罗网络

摘要

我们提出了一种新颖的网络,称为协同注意力暹罗网络(CO-attention Siamese Network, COSNet),以从整体视角解决无监督视频对象分割任务。我们强调了视频帧之间固有的相关性的重要性,并引入了全局协同注意力机制,进一步改进了现有的主要关注在短期时间片段中学习区分前景表示的深度学习解决方案。我们的网络中的协同注意力层通过联合计算并将协同注意力响应附加到联合特征空间中,提供了高效且强大的阶段来捕捉全局相关性和场景上下文。我们使用视频帧对训练COSNet,这自然地扩充了训练数据并提高了学习能力。在分割阶段,协同注意力模型通过同时处理多个参考帧来编码有用信息,从而更好地推断出频繁出现和显著的前景对象。我们提出了一种统一且端到端可训练的框架,在该框架中可以派生出不同的协同注意力变体,以挖掘视频中的丰富上下文。我们在三个大型基准数据集上的广泛实验表明,COSNet大幅优于当前的其他方法。

代码仓库

carrierlxk/COSNet
官方
pytorch

基准测试

基准方法指标
unsupervised-video-object-segmentation-on-10COSNet
F: 79.4
G: 80.0
J: 80.5
unsupervised-video-object-segmentation-on-11COSNet
J: 75.6
unsupervised-video-object-segmentation-on-12COSNet
J: 70.5
video-polyp-segmentation-on-sun-seg-easyCOSNet
Dice: 0.596
S measure: 0.654
Sensitivity: 0.359
mean E-measure: 0.600
mean F-measure: 0.496
weighted F-measure: 0.431
video-polyp-segmentation-on-sun-seg-hardCOSNet
Dice: 0.606
S-Measure: 0.670
Sensitivity: 0.380
mean E-measure: 0.627
mean F-measure: 0.506
weighted F-measure: 0.443

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
见多识广:基于协同注意力机制的无监督视频对象分割暹罗网络 | 论文 | HyperAI超神经