可植入自适应细胞:可微架构搜索以提升任何经过训练的 U 型网络的性能
本文提出自适应通道分配的可微分架构搜索方法 (ACA-DARTS),通过从运算空间中删除跳跃连接的方法,自动重新填充评估阶段的跳跃连接,解决由缺乏跳跃连接引起的性能降级问题,并在整个 ImageNet 数据集上直接搜索,实验表明 ACA-DARTS 可以提高搜索稳定性并大大加速 DARTS 十倍以上,同时获得更高的准确性。
Apr, 2022
本篇论文提出了一种名为 P-DARTS 的算法来解决神经网络架构搜索中的 transfer learning 问题,并在 CIFAR10 数据集以及几个目标问题(包括 ImageNet 分类,COCO 检测和三个 ReID benchmarks)上实现了更好的性能。
Dec, 2019
通过基于双层优化的稀疏概率生成方法,Z0-DARTS + 提高了搜索效率,与最先进的解决方案相比,匹配了状态技术的准确性,并将搜索时间缩短了三倍。
May, 2024
研究使用神经结构搜索(NAS)算法通过对 loss landscape 以及 gradient information 的分析,发现其倾向于选择使用 wide and shallow cell structures 的架构,虽然这些架构具有快速收敛的优势,但不一定能获得比其他架构更好的泛化性能。因此,有必要修正现有的 NAS 算法。
Sep, 2019
这项研究介绍了对 Cyclic DARTS (CDARTS) 的稳定性和泛化能力的改进。我们提出的 ICDARTS 是一种改进的方法,它通过消除评估网络权重对搜索网络权重的依赖,并修改离散化搜索网络的过程,以保留这些操作在最终评估网络中。我们还通过消融研究探索了 ICDARTS 算法和网络模板。最后,我们通过扩展操作集和探索连续搜索单元的其他离散化方法,探索了扩展 ICDARTS 的搜索空间的方法。这些实验得出了具有改进泛化能力的网络,并实现了一种将动态搜索空间纳入 ICDARTS 的新方法。
Sep, 2023
本文提出了一种基于 DARTS 和最先进的增量学习策略的增量学习强基准方法,并将架构搜索的思想扩展到正则化架构遗忘,从而在 RF 信号和图像分类任务中实现性能的显著提升,取得了比现有方法高出 10%的结果。
May, 2022
借助 Differentiable Architecture Search,本研究提出了 sharpDARTS 搜索方式,该方式在 CIFAR-10 数据集上取得了相对错误率 20-30% 的进展,并在模型大小相似的情况下创下了目前最先进的 1.93% 的验证误差和 25.1% 的 ImageNet top-1 误差,同时,通过 Differentiable Hyperparameter Grid Search 和 HyperCuboid 搜索空间的设计和优化,本研究也证明了 sharpDARTS 更具通用性,提出了 Max-W 正则化以解决 DARTS 在新领域中的泛化问题。
Mar, 2019
本论文介绍了一种名为神经注意力电路(NACs)的神经网络模型,它是一种通用但模块化的网络体系结构,可同时学习神经模块的参数化和稀疏连接,其在不同数据模态下具有优秀的性能表现,并已在不同领域展示出模块划分的表现。
Oct, 2022
通过理论和实证分析,发现 DARTS 算法中存在的权值共享框架以及极限收敛点限制了模型最优结构的选择,导致性能严重下降,提出了两个新的正则化项解决了上述问题。
Oct, 2022