Dec, 2019
基于元学习内核的高效可微分神经架构搜索
Efficient Differentiable Neural Architecture Search with Meta Kernels
TL;DR该研究提出了一种基于元卷积核的高效神经架构搜索策略,通过直接编码超级网络来缩小多个卷积核选项,从而在减少中间特征存储内存和资源预算的同时,实现更精细的搜索。该方法在ImageNet基准数据集上以357M FLOPs为限制可达到77.0%的top-1准确率,超过了EfficientNet和MobileNetV3,并且与最先进的NAS方法相比,在相同的计算预算下速度还快了三个数量级。