离散感知的架构搜索
神经架构搜索被广泛应用于各种计算机视觉任务,其中不可微分神经架构搜索是其中一个有前景的子领域。然而,基于梯度的方法受到离散化误差的影响,从而严重损害了获取最终架构的过程。我们的工作首次研究了离散化误差的风险,并展示了如何影响非规则化超网络。为了增强 DNAS 框架的鲁棒性,我们引入了一种新的单阶段搜索协议,不依赖于解码连续架构。我们的结果表明,这种方法在 Cityscapes 验证数据集的搜索阶段达到了 75.3% 的性能,并且在包含短连接的非稠密搜索空间上比 DCNAS 的最佳网络性能高 1.1%。整个训练过程只需 5.5 个 GPU 天,由于权重重用,获得了计算效率高的架构。此外,我们提出了一种新的数据集分割过程,大大提高了结果并防止了 DARTS 中架构退化。
May, 2024
多粒度架构搜索(MGAS)是一个统一框架,旨在全面且高效地探索多粒度搜索空间以发现既有效又高效的神经网络,并在模型性能和模型大小之间取得更好的平衡。
Oct, 2023
本文介绍了一种替代基于权重参数选择最大操作的 NAS 体系结构选择方法,并通过实验证明这种方法可以提取出更好的架构,并且可以纠正 DARTS 中部分失败模式。
Aug, 2021
本文介绍了神经体系结构搜索中的共享权重方法,并提出了其最大的挑战在于超网络与子体系结构之间的优化差距。同时,根据不同的方法来弥合这个差距,分析了这些方法的优劣。最后,就 NAS 和 AutoML 的未来方向提出了作者的观点。
Aug, 2020
本文旨在通过将神经体系结构搜索的大搜索空间模块化为块,以确保潜在的候选架构完全训练,从而降低共享参数引起的表示移位并导致对候选项的正确评级,并且从教师模型中提取体系结构知识来指导我们的块搜索,这显着提高了 NAS 的有效性和效率。
Nov, 2019
该论文提出了一种名为 DSO-NAS 的神经架构搜索方法,采用基于稀疏正则化的模型修剪视角,利用逐步引入稀疏网络的方法来解决搜索空间庞大且不连续的问题,在 CIFAR-10 数据集上达到了 2.84%的平均测试误差,在 ImageNet 数据集上,仅使用 8 块 GPU 600M FLOPs 进行 18 小时的训练可以达到 25.4%的测试误差。
Nov, 2018
本研究提出一种名为 Densely Connected NAS (DCNAS) 的神经架构搜索框架,通过连接细胞并使用可学习的权重来引入密集连接的搜索空间,并通过路径和通道级别的抽样策略设计一个融合模块来降低搜索空间的内存消耗。DCNAS 搜索算法得到的体系结构在公共语义图像分割基准测试中的表现显著优于先前算法。
Mar, 2020
该研究论文提出了一种新的可微分架构搜索方法,通过分布学习问题来加以实现,并将连续松弛的架构混合权重视为随机变量,以 Dirichlet 分布进行建模,通过路径导数优化 Dirichlet 参数,并采用渐进学习方案消除了不同 iable NAS 的大内存消耗,在 CIFAR-10、ImageNet 和 NAS-Bench-201 等几个数据集上取得了最先进的结果。
Jun, 2020
该论文提出了一种不同 iable 的搜索空间方法,可以通过逐渐修剪较差的操作,实现体系结构权重的退火,从而以连续的方式收敛到单个输出网络,实验表明该方法在视觉数据集上具有较高的准确性和较低的搜索成本。
Apr, 2019
边缘计算旨在使边缘设备(如物联网设备)能够在本地处理数据,而不是依赖云端。本文提出了一种基于 DCA-NAS 的快速神经网络架构搜索方法,该方法结合了边缘设备的约束条件,如模型大小和浮点运算,通过权重共享和通道瓶颈技术加快搜索速度,并发现了具有低推断延迟和最先进性能的特定设备架构。
Jul, 2023