联邦神经结构搜索
研究表明基于分布式的 Federated Learning 在处理数据分布不一致的情况下存在结构不适配的情况,提出基于 Neural Architecture Search 的 Federated NAS 算法来自动化协作搜索模型架构以提高模型精度和减少手动设计工作,在非独立同分布数据集上实验结果表明 FedNAS 所搜索到的模型架构胜过手动预设的模型架构。
Apr, 2020
文章提出了一种名为 DC-NAS 的分治方法,该方法在联邦系统中进行超网神经架构搜索的同时,提出了一种新的多样化采样策略来平衡搜索空间的探索和开发,并通过通道剪枝进一步降低设备的训练复杂性,该方法比最大分离采样等多种采样策略表现更好,研究在 CIFAR10,CIFAR100,EMNIST 和 TinyImagenet 基准测试中进行了评估,显示了联邦学习的不同方面(如可扩展性和非 IID 数据),并且 DC-NAS 提供了近似于全尺寸联邦 NAS 的等效准确性,少消耗 50% 的资源。
May, 2023
本研究提出一种名为 Densely Connected NAS (DCNAS) 的神经架构搜索框架,通过连接细胞并使用可学习的权重来引入密集连接的搜索空间,并通过路径和通道级别的抽样策略设计一个融合模块来降低搜索空间的内存消耗。DCNAS 搜索算法得到的体系结构在公共语义图像分割基准测试中的表现显著优于先前算法。
Mar, 2020
提出了 FAQS,这是一个高效的个性化 FL-NAS 量化框架,具有权重共享超级内核,比特共享量化和掩码传输等特征,可帮助减少通信成本并生成适合于各种用户偏好的异构硬件感知模型。实验结果表明,FAQS 比常规 FL 框架每轮通信带宽平均降低 1.58 倍,并比 FL+NAS 框架高效 4.51 倍。
Oct, 2022
本文旨在通过将神经体系结构搜索的大搜索空间模块化为块,以确保潜在的候选架构完全训练,从而降低共享参数引起的表示移位并导致对候选项的正确评级,并且从教师模型中提取体系结构知识来指导我们的块搜索,这显着提高了 NAS 的有效性和效率。
Nov, 2019
提出一种硬件感知量化神经架构搜索 (HQNAS) 框架,将神经结构搜索和量化方法结合,通过权值共享和比特共享以高效优雅的方式完成。在 CIFAR10 中只需要 4 小时 GPU 时间,能发现出卓越的 NN 策略。同时,我们的方法支持在线学习和持续适应环境。
Oct, 2022
神经网络、深度学习、神经架构搜索、数据集、NAS 挑战是研究论文的关键词,该论文介绍了为一系列 NAS 挑战创建的八个数据集,以及使用标准深度学习方法和挑战参与者的最佳结果进行的实验。
Apr, 2024
本研究使用网络激活度重叠的方式实现预测神经网络的训练精度,并将其应用于神经结构搜索,以实现在单个 GPU 上进行快速网络搜索。同时,我们还提出了一种基于正则化进化搜索的适应方法,以进一步提高搜索效率。
Jun, 2020
本文提出了一种高效的神经架构搜索(Neural Architecture Search, NAS)框架,基于元学习的跨模态潜空间,结合预训练的网络库和数据库,可以快速地为新数据集搜索神经架构,并且还提出了一种元性能预测器来从多个未见数据集中预估和选择最佳的神经架构。实验结果表明,该模型受过 ImageNet-1K 的元学习并结合 NAS-Bench 201 搜索空间的神经架构,在包括 CIFAR-10 和 CIFAR-100 等多个未见数据集上成功泛化,平均搜索时间为 33 GPU 秒,即使在 MobileNetV3 搜索空间下,它比具有相似性能的可转移 NAS 方法 NSGANetV2 快 5.5K 倍。我们认为这为快速 NAS 和利用累积多年的数据集和架构的知识提出了新的研究方向。
Jul, 2021
本文以深度预训练神经网络为基础,探究如何通过数据恢复技术以及自主生成的语义与多样性丰富的合成数据,实现在保护隐私,避免偏见等现实场景下,无需使用原始训练数据进行神经结构搜索的可行性和效果,并发现合成数据的神经结构搜索表现不亚于以往使用原始数据的搜索结果。
Dec, 2021