NAS 模型在激活和跳连接搜索下的泛化特性
本文探讨了神经架构搜索中基于双层优化的训练 - 验证分割问题,通过研究验证的风险和超梯度等优化指标,该方法能有效选择最具普适性的模型,并避免过度拟合。同时,文章还建立了一般化界限,探讨了神经架构搜索和多核学习之间的联系。
Apr, 2021
本文探讨了一种新的神经架构搜索度量方式,发现损失曲面的平整度可以预测神经网络架构的泛化能力,通过在不同的搜索空间进行评估,提出的方法相对于现有的 NAS 方法表现更好,并且在数据分布偏移以及目标检测或语义分割等任务中具有稳健的泛化能力。
May, 2023
该研究通过神经切向核(NTK)模式下的梯度下降探讨了训练一层过度参数化的 ReLU 网络,其中网络的偏置被初始化为某个常量而不是零。该初始化的诱人好处是神经网络将可以在整个训练过程中保持稀疏激活,从而实现快速训练。结果表明,在稀疏化后,网络可以实现与密集网络一样快的收敛速度。其次,提供了宽度稀疏性的相关性,给出了一个稀疏性相关的 Rademacher 复杂度和泛化性能界限。最后,研究了极限 NTK 的最小特征值,发现可以使用可训练偏置来提高推广性。
Jan, 2023
本文提出了一种将神经结构搜索 (NAS) 看作寻找最优网络生成器的问题,同时提出了一种新的、层次化和基于图形的搜索空间,实现了在极少连续超参数的情况下表示极大多样性的网络类型。通过贝叶斯优化作为搜索策略,该方法有效地扩展了有效架构的范围,促进了多目标学习方法的发展, 并在六个基准数据集上进行了验证,在生成轻量级且高度竞争的模型方面表现出了有效性。
Apr, 2020
本研究使用网络激活度重叠的方式实现预测神经网络的训练精度,并将其应用于神经结构搜索,以实现在单个 GPU 上进行快速网络搜索。同时,我们还提出了一种基于正则化进化搜索的适应方法,以进一步提高搜索效率。
Jun, 2020
本文提出了一种环保的神经结构搜索方法,使用梯度代替传统的下游训练来评估结构,探索了梯度核心假设并提出了基于该假设的 KNAS 方法,在图像和文本分类任务中实现了与传统方法相当的结果,但搜索速度更快且具有环保意识。
Nov, 2021
本文研究神经架构搜索中的优化问题,提出一种基于单层经验风险最小化的几何感知框架,结合梯度下降和正则化的优化器,通过基于连续优化的松弛方法实现对离散寻找空间的搜索,成功为计算机视觉中的最新 NAS 基准提供了一种优异的算法。
Apr, 2020
本研究提出了基于 Label-Gradient Alignment(LGA)的新型 NTK 度量方法,通过少量训练,LGA 能够可靠且准确地估计神经结构的性能,并能指导现有的搜索算法以更小的搜索成本实现具有竞争性的搜索性能。
Mar, 2022
利用神经切向核和输入空间中的线性区域数来排名结构,通过 TE-NAS 框架进行训练 - free 的神经体系结构搜索,使用基于剪枝的 NAS 机制进行灵活且优越的权衡,实现在 CIFAR-10 和 ImageNet 上只花费 0.5 和 4 GPU 小时完成的高质量搜索。
Feb, 2021