HyperAIHyperAI

Command Palette

Search for a command to run...

FlexConv:连续核卷积与可微分核尺寸

David W. Romero∗1, Robert-Jan Bruintjes∗2, Erik J. Bekkers3, Jakub M. Tomczak1, Mark Hoogendoorn1, Jan C. van Gemert2

摘要

在设计卷积神经网络(CNNs)时,必须在训练前选择卷积核的大小。近期的研究表明,不同层使用不同的卷积核大小可以提升CNNs的性能,但在实际应用中探索所有可能的组合是不可行的。一种更为高效的方法是在训练过程中学习卷积核的大小。然而,现有的学习卷积核大小的方法带宽有限。这些方法通过膨胀来调整卷积核的大小,因此它们所能描述的细节也受到限制。在本研究中,我们提出了一种名为FlexConv的新颖卷积操作,可以在固定参数成本下学习高带宽且可调的卷积核大小。FlexNets模型无需使用池化即可捕捉长期依赖关系,在多个序列数据集上达到了最先进的性能,超越了最近提出的具有可学习卷积核大小的工作,并且在图像基准数据集上的表现与更深的残差网络(ResNets)相当。此外,FlexNets可以在比训练过程中所见更高的分辨率下部署。为了避免混叠效应,我们提出了一种新颖的内核参数化方法,可以对内核频率进行解析控制。我们的新型内核参数化方法展示了比现有参数化方法更高的描述能力和更快的收敛速度,从而显著提高了分类准确性。


用 AI 构建 AI

从创意到上线——通过免费 AI 协同编码、开箱即用的环境和最优惠的 GPU 价格,加速您的 AI 开发。

AI 协同编码
开箱即用的 GPU
最优定价

HyperAI Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供