3 个月前

EEEA-Net:一种早期退出的进化神经架构搜索

EEEA-Net:一种早期退出的进化神经架构搜索

摘要

本研究的目标是寻找适用于计算资源受限的设备端处理器的卷积神经网络(Convolutional Neural Network, CNN)架构,同时在显著降低网络架构搜索(Network Architecture Search, NAS)计算成本的前提下实现优异性能。为此,本文提出了一种名为“早期退出种群初始化”(Early Exit Population Initialisation, EE-PI)的新算法,该算法基于进化算法(Evolutionary Algorithm, EA),有效实现了上述双重目标。EE-PI算法通过在搜索过程中筛选出参数量低于预设最大阈值的模型,从而减少整体搜索过程中的参数总量。对于参数量超过阈值的模型,系统将自动寻找新的候选模型进行替换。该机制在保持模型性能或准确率不变的前提下,显著降低了模型参数量、内存占用以及推理与搜索时间。实验结果表明,该方法将搜索时间缩短至仅0.52 GPU天,相较此前主流NAS方法取得了巨大突破:相较于NSGA-Net所耗用的4 GPU天、AmoebaNet模型的3,150 GPU天,以及NASNet模型的2,000 GPU天,本方法在效率上实现了数量级的提升。此外,基于该算法构建的早期退出进化算法网络(Early Exit Evolutionary Algorithm Networks, EEEA-Nets)能够生成在特定数据集上兼具最低误差率与最低计算开销的网络架构,构成一类高效、轻量级的网络算法家族。在CIFAR-10、CIFAR-100和ImageNet等基准数据集上的实验验证表明,EEEA-Net在当前先进NAS模型中取得了最优的分类性能,错误率分别为:CIFAR-10为2.46%,CIFAR-100为15.02%,ImageNet为23.8%。进一步地,我们将该图像识别架构拓展应用于目标检测、语义分割和关键点检测等下游任务。实验结果表明,在所有这些任务中,EEEA-Net-C2均优于MobileNet-V3,展现出卓越的泛化能力与实际应用价值。(算法代码已开源,可访问:https://github.com/chakkritte/EEEA-Net)

代码仓库

chakkritte/eeea-net
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
architecture-search-on-cifar-10-imageEEEA-Net-C (b=5)+ CO
Params: 3.6
image-classification-on-cifar-100EEEA-Net-C (b=5)+ CO
Percentage correct: 84.98
neural-architecture-search-on-cifar-10EEEA-Net-C (b=5)+ CO
Top-1 Error Rate: 2.46%
neural-architecture-search-on-imagenetEEEA-Net-C2 (b=7) (our)
Accuracy: 76.2
Top-1 Error Rate: 23.8
neural-architecture-search-on-imagenetEEEA-Net-C1 (b=7) (our)
Accuracy: 74.3
Top-1 Error Rate: 25.7
object-detection-on-pascal-voc-2007EEEA-Net-C2 (YOLOv4)
MAP: 81.8%
semantic-segmentation-on-cityscapes-valEEEA-Net-C2 (ours)
mIoU: 76.8

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
EEEA-Net:一种早期退出的进化神经架构搜索 | 论文 | HyperAI超神经