
摘要
模型的时间/空间感受野在序列任务与空间任务中起着至关重要的作用。较大的感受野有助于建模长程依赖关系,而较小的感受野则更有利于捕捉局部细节。现有的方法通常通过人工设计的方式在各网络层中构建感受野结构。我们是否能够有效搜索出更优的感受野组合,以替代人工设计的模式?为回答这一问题,本文提出一种从全局到局部的搜索策略,用于发现更优的感受野组合。该搜索策略结合了全局搜索与局部搜索:全局搜索旨在发现超越人工设计模式的粗粒度组合;在此基础上,我们进一步提出一种基于期望引导的迭代式局部搜索机制,以高效优化并细化感受野组合。将该感受野搜索机制集成至多种模型所构建的RF-Next模型,在多项任务中均显著提升了性能,包括时间动作分割、目标检测、实例分割以及语音合成等。相关源代码已公开,可访问 http://mmcheng.net/rfnext 获取。
代码仓库
ShangHua-Gao/G2L-search
pytorch
GitHub 中提及
ShangHua-Gao/RFNext
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| action-segmentation-on-breakfast-1 | RF++-SSTDA | Acc: 70.8 |
| instance-segmentation-on-coco-2017-val | RF-ConvNeXt-T Cascade R-CNN | AP: 44.3 |
| object-detection-on-coco-2017-val | RF-ConvNeXt-T Cascade R-CNN | AP: 50.9 |
| semantic-segmentation-on-imagenet-s | RF-ConvNext-Tiny (rfmerge, P4, 224x224, SUP) | mIoU (test): 51.1 mIoU (val): 51.3 |
| semantic-segmentation-on-imagenet-s | RF-ConvNext-Tiny (rfmultiple, P4, 224x224, SUP) | mIoU (test): 50.5 mIoU (val): 50.8 |
| semantic-segmentation-on-imagenet-s | RF-ConvNext-Tiny (rfsingle, P4, 224x224, SUP) | mIoU (test): 50.5 mIoU (val): 50.7 |