Arch-Graph: 任务可迁移神经架构搜索的无环架构关系预测器
通过将神经结构转换为图形并使用平均度量作为代理评估指标,我们的 nasgraph 方法显著降低了训练自动设计的神经网络模型候选的计算成本,实现在 217 CPU 秒内从 NAS-Bench201 的 200 个随机采样架构中找到最佳架构,并在不同数据集上实现有竞争力的性能,包括 NASBench-101、NASBench-201 和 NDS 搜索空间。我们还展示了 nasgraph 在 Micro TransNAS-Bench-101 上可以推广至更具挑战性的任务。
May, 2024
通过使用图神经网络作为性能预测器,将神经架构转化为向量表示,并使用定制训练损失来提高预测准确性。在多个基准数据集上进行的实验结果表明,与其他图神经网络预测器相比,预测准确性显著提高,Kendall-tau 相关性增加了 3% 至 16%。
Apr, 2024
本文探讨神经结构搜索 (NAS) 的计算图模型,提出了一种利用图神经网络的深度生成模型 (GraphPNAS),通过学习表现良好的神经结构的分布来比单纯的搜索最佳结构更高效。作者使用 RandWire,ENAS 和 NAS-Bench-101/201 的三个搜索空间对 GraphPNAS 进行了广泛的实验,并且结合强化学习方法生成高质量的神经结构,结果表明其优于传统的基于 RNN 的神经结构生成器及随机搜索方法,并且取得了与当前最先进的 NAS 方法相当甚至更好的性能表现。
Nov, 2022
本文比较了基于强化学习和进化算法的两种神经架构搜索方法来优化图神经网络,结果在包括 7 个数据集的两个搜索空间内显示出两种方法的准确性与随机搜索相似,引出了有多少搜索空间维度实际上与问题相关的问题。
Jul, 2020
本文介绍了一种基于神经架构搜索(NAS)的新方法,称为神经架构传递(NAT),该方法可将已训练的超网络集成到在线迁移学习和多目标进化搜索流程中,以快速生成适用于多个应用场景的任务特定定制模型,并在 11 项基准图像分类任务中证明了其有效性。
May, 2020
通过发现和利用图与体系结构之间的因果关系来搜索能够在分布转移下具有泛化能力的最佳体系结构,以解决现有方法在现实图场景中广泛分布转移下无法泛化的问题。
May, 2024
本文提出了一种高效的神经架构搜索(Neural Architecture Search, NAS)框架,基于元学习的跨模态潜空间,结合预训练的网络库和数据库,可以快速地为新数据集搜索神经架构,并且还提出了一种元性能预测器来从多个未见数据集中预估和选择最佳的神经架构。实验结果表明,该模型受过 ImageNet-1K 的元学习并结合 NAS-Bench 201 搜索空间的神经架构,在包括 CIFAR-10 和 CIFAR-100 等多个未见数据集上成功泛化,平均搜索时间为 33 GPU 秒,即使在 MobileNetV3 搜索空间下,它比具有相似性能的可转移 NAS 方法 NSGANetV2 快 5.5K 倍。我们认为这为快速 NAS 和利用累积多年的数据集和架构的知识提出了新的研究方向。
Jul, 2021
本研究提出一种名为 GraphNAS 的图神经网络结构搜索方法,可用于自动搜索最佳图神经网络架构,通过强化学习训练循环网络,实现生成变长字符串,针对验证数据集的期望准确性最大化,实验结果表明在传导和归纳性学习设置中的节点分类任务中,GraphNAS 具有一致更好的性能,并可设计出一种与最佳人工设计的结构相媲美的新型网络架构。
Apr, 2019
本文提出了一种名为 GIAug 的有效的 DNN 架构扩增方法,它可以通过基于图同构的机制,非常高效地生成单一架构上多元化的注释架构,并将其编码成适合于大多数预测模型的形式,从而非常灵活地利用各种现有的基于性能预测的 NAS 算法,并且在 CIFAR-10 和 ImageNet 基准数据集上进行的广泛实验表明,GIAug 可以显著提高大多数最先进的同行预测器的性能,并且在与现有的最先进 NAS 算法相比时,可以在 ImageNet 上节省三个数量级的计算成本,同时保持类似的性能。
Jul, 2022
本文提出了将神经架构搜索(NAS)应用于通用多任务学习(GP-MTL)中的方法。我们将 GP-MTL 网络分解成单任务骨干和层级分层特征共享 / 融合,设计了一个新颖的通用任务无关搜索空间,并提出了一种新颖的单次梯度基于搜索算法。通过对体系结构权重进行最小熵正则化,使体系结构权重收敛到近离散值,从而实现单个模型,达到可直接用于评估且不必从头开始培训。
Mar, 2020