带有集成 Gumbel-Softmax 的可微架构搜索
该研究论文提出了一种新的可微分架构搜索方法,通过分布学习问题来加以实现,并将连续松弛的架构混合权重视为随机变量,以 Dirichlet 分布进行建模,通过路径导数优化 Dirichlet 参数,并采用渐进学习方案消除了不同 iable NAS 的大内存消耗,在 CIFAR-10、ImageNet 和 NAS-Bench-201 等几个数据集上取得了最先进的结果。
Jun, 2020
该研究提出了一种基于元卷积核的高效神经架构搜索策略,通过直接编码超级网络来缩小多个卷积核选项,从而在减少中间特征存储内存和资源预算的同时,实现更精细的搜索。该方法在 ImageNet 基准数据集上以 357M FLOPs 为限制可达到 77.0% 的 top-1 准确率,超过了 EfficientNet 和 MobileNetV3,并且与最先进的 NAS 方法相比,在相同的计算预算下速度还快了三个数量级。
Dec, 2019
通过提出一种一次性神经集成架构搜索解决方案,该方法使用多样的模型来提高模型的泛化能力和性能,并在 ImageNet 数据集上进行了测试,并与 MobileNetV3 和 EfficientNet 家族进行了比较,证明其在性能和泛化能力方面优于其他算法。
Apr, 2021
本文探讨了一种新的神经架构搜索度量方式,发现损失曲面的平整度可以预测神经网络架构的泛化能力,通过在不同的搜索空间进行评估,提出的方法相对于现有的 NAS 方法表现更好,并且在数据分布偏移以及目标检测或语义分割等任务中具有稳健的泛化能力。
May, 2023
本文提出了 AdaNAS 算法,利用集成技术将神经网络组合成一组小型神经网络集合,并采用基于知识蒸馏的新技术,迭代地训练小型神经网络,取得了 CIFAR-10 数据集中可比较的结果和 CIFAR-100 数据集中的最佳结果。
Mar, 2019
该研究提出了一种基于优化框架的神经架构搜索方法,将连接权重和神经架构的联合优化转换为可微分优化,使用随机松弛技术,并利用梯度进行权重和架构的同时优化,从而在图像分类和图像修复任务中实现了近乎领先的性能表现。
May, 2019
本文介绍了一种替代基于权重参数选择最大操作的 NAS 体系结构选择方法,并通过实验证明这种方法可以提取出更好的架构,并且可以纠正 DARTS 中部分失败模式。
Aug, 2021
神经架构搜索被广泛应用于各种计算机视觉任务,其中不可微分神经架构搜索是其中一个有前景的子领域。然而,基于梯度的方法受到离散化误差的影响,从而严重损害了获取最终架构的过程。我们的工作首次研究了离散化误差的风险,并展示了如何影响非规则化超网络。为了增强 DNAS 框架的鲁棒性,我们引入了一种新的单阶段搜索协议,不依赖于解码连续架构。我们的结果表明,这种方法在 Cityscapes 验证数据集的搜索阶段达到了 75.3% 的性能,并且在包含短连接的非稠密搜索空间上比 DCNAS 的最佳网络性能高 1.1%。整个训练过程只需 5.5 个 GPU 天,由于权重重用,获得了计算效率高的架构。此外,我们提出了一种新的数据集分割过程,大大提高了结果并防止了 DARTS 中架构退化。
May, 2024
本研究从贝叶斯角度出发,提出了一种后验引导的神经结构搜索方法(PGNAS),通过估计网络结构和权重的联合后验分布,减少数据采样与超参数调整,并在图像分类任务上进行验证,证明了 PGNAS 较其它方法在搜索精度与速度方面具有良好的平衡。
Jun, 2019
本文提出了一种将神经结构搜索 (NAS) 看作寻找最优网络生成器的问题,同时提出了一种新的、层次化和基于图形的搜索空间,实现了在极少连续超参数的情况下表示极大多样性的网络类型。通过贝叶斯优化作为搜索策略,该方法有效地扩展了有效架构的范围,促进了多目标学习方法的发展, 并在六个基准数据集上进行了验证,在生成轻量级且高度竞争的模型方面表现出了有效性。
Apr, 2020