神经图特征的惊人强大性能预测
本研究评估了 31 种不同的神经架构搜索性能预测器,测试了多种性能衡量方法以及它们在加速基于预测的 NAS 框架方面的有效性,结果表明有些预测器组合可以实现更好的预测能力,并提供了不同设置下最佳预测器的建议。
Apr, 2021
通过使用图神经网络作为性能预测器,将神经架构转化为向量表示,并使用定制训练损失来提高预测准确性。在多个基准数据集上进行的实验结果表明,与其他图神经网络预测器相比,预测准确性显著提高,Kendall-tau 相关性增加了 3% 至 16%。
Apr, 2024
利用深度学习方法提出了一种新的零样本神经架构搜索方法,该方法使用正弦编码的傅里叶和来构建计算前馈图,并通过伴随的多层感知机对架构进行排序。实验证明,该方法在 NAS-Bench-201 数据集上的相关性和收敛速度均超过了先前使用图卷积网络的方法,并且所提取的特征表示经训练后可迁移到其他 NAS-Benchmark,展现了在多个搜索空间中的潜在普适性。
Aug, 2023
本研究分析了常见的零成本代理在 NAS-Bench-201 搜索空间中作为鲁棒性性能预测器的能力,发现预测鲁棒性使得现有的零成本代理预测任务更具挑战性,需要联合考虑多个代理才能预测模型的鲁棒性。
Jul, 2023
本文提出了一种利用标准频率回归模型通过网络架构、超参数和时间序列验证性能数据来预测部分训练模型配置的最终性能的方法,并证明该方法在视觉分类和语言建模领域中是有效的。同时,我们提出了一种早期停止方法,可用于超参数优化和元模建模,加速了模型配置的优化过程,该方法在强化学习 - based 架构选择算法和基于贝叶斯思想的搜索方法中均可无缝集成。
May, 2017
提出了一种基于图卷积网络(GCN)的性能预测器,用于实现高效的硬件感知神经架构搜索(BRP-NAS)。与以往的方法不同,该方法重视模型之间的二元关系和迭代数据选择策略,实现了更高效的样本利用率。研究表明,该方法在多项飞行器搜索领域中的性能表现均优于现有方法,并呼吁人们重视准确的时延估计。
Jul, 2020
通过将神经结构转换为图形并使用平均度量作为代理评估指标,我们的 nasgraph 方法显著降低了训练自动设计的神经网络模型候选的计算成本,实现在 217 CPU 秒内从 NAS-Bench201 的 200 个随机采样架构中找到最佳架构,并在不同数据集上实现有竞争力的性能,包括 NASBench-101、NASBench-201 和 NDS 搜索空间。我们还展示了 nasgraph 在 Micro TransNAS-Bench-101 上可以推广至更具挑战性的任务。
May, 2024
TG-NAS 是一种基于模型的通用代理,利用基于 Transformer 的操作符嵌入生成器和图卷积网络 (GCN) 来预测架构性能,通过对各种 NAS 基准测试进行实验证明了其在搜索效率方面的优势,表明其作为高效架构搜索的基础组成部分的潜力。TG-NAS 与先前的零成本 (ZC) 代理方法相比,搜索效率提高了多达 300 倍,特别地,在 NAS-Bench-201 空间上发现具有 93.75% CIFAR-10 准确度的竞争模型,并在 DARTS 空间上达到了 74.5% 的 ImageNet top-1 准确度。
Mar, 2024
本文提出了 GENNAPE,一种基于预训练的神经架构性能估计器,通过网络表示、对比预训练和基于模糊聚类的预测器集合相结合,旨在对完全未知的神经网络进行泛化。实验表明,GENNAPE 在 NAS-Bench-101 上预训练可以在 5 个不同的公共神经网络基准测试中实现卓越的可转移性,并能正确定位这些网络中的高性能体系结构。
Nov, 2022
本文提出了一种名为 GIAug 的有效的 DNN 架构扩增方法,它可以通过基于图同构的机制,非常高效地生成单一架构上多元化的注释架构,并将其编码成适合于大多数预测模型的形式,从而非常灵活地利用各种现有的基于性能预测的 NAS 算法,并且在 CIFAR-10 和 ImageNet 基准数据集上进行的广泛实验表明,GIAug 可以显著提高大多数最先进的同行预测器的性能,并且在与现有的最先进 NAS 算法相比时,可以在 ImageNet 上节省三个数量级的计算成本,同时保持类似的性能。
Jul, 2022