InstaTune:微调期间的即时神经架构搜索
本文提出了一种基于实例的神经架构搜索方法 InstaNAS,通过搜索一种 “架构分布” 而不是单一的神经架构,确保难以处理的样本使用复杂的神经架构来减少前处理时间,并在搜索空间中验证表明,与 MobileNetV2 相比,在多个数据集上具有相同的准确性和大约 48.8%的前处理时间减少。
Nov, 2018
本文介绍了一种基于神经架构搜索(NAS)的新方法,称为神经架构传递(NAT),该方法可将已训练的超网络集成到在线迁移学习和多目标进化搜索流程中,以快速生成适用于多个应用场景的任务特定定制模型,并在 11 项基准图像分类任务中证明了其有效性。
May, 2020
本文提出了一个自动且高效地从预训练的超网络中找到针对不同性能度量和硬件配置进行优化的子网络的综合系统,在多个领域中与现有最先进的超网络训练方法无缝配合,展示了如何将新颖的搜索策略与演化算法相结合,加速 ResNet50、MobileNetV3 和 Transformer 的搜索过程,并展示了比最先进的贝叶斯优化 WeakNAS 方法快 8 倍的搜索结果。
Feb, 2022
该研究提出了 few-shot NAS,利用多个超级网络(称为子超级网络)覆盖搜索空间的不同区域,以缓解操作之间的不良共适应,并证明其在多项任务中能够显著提高各种一次性方法的准确性,包括在 NasBench-201 和 NasBench1-shot-1 上的 3 个不同任务中的 4 个基于梯度的和 6 个基于搜索的方法,并在 ImageNet、CIFAR10 和 Auto-GAN 上取得最新水平。
Jun, 2020
本研究探讨了一种新的用于 fine-tuning 神经网络的方法,称为子集 fine-tuning,即只对部分层进行精细调整并锁定其余权重,该方法可以在不增加计算成本的情况下实现多任务的学习和推理,并在数据稀缺的情况下实现与完全 fine-tuning 模型相当甚至更好的性能。
Feb, 2023
本研究从神经结构搜索的角度探讨了在 few-shot 识别中如何设计最优的适应策略,包括适配器的排列方式、哪些层保持冻结、哪些层进行微调等,并在 Meta-Dataset 和 Meta-Album 上展示了技术的普适性和最新的性能。
Jun, 2023
利用神经切向核和输入空间中的线性区域数来排名结构,通过 TE-NAS 框架进行训练 - free 的神经体系结构搜索,使用基于剪枝的 NAS 机制进行灵活且优越的权衡,实现在 CIFAR-10 和 ImageNet 上只花费 0.5 和 4 GPU 小时完成的高质量搜索。
Feb, 2021
本文提出一种新方法 BigNAS,使用单个共享权重集合无需进行额外的训练或后处理步骤,就可以用于神经结构搜索,该方法的预测准确率优于现有方法。
Mar, 2020
提出了一种名为 NASOA 的框架,该框架采用联合神经体系结构搜索和在线适应方法,以快速满足用户要求的任务定向微调。 实验表明,NASOA 在多个数据集上取得了比现有方法更好的表现,并且最终模型比 SOTA 模型更加高效。
Aug, 2021
本文描述了 BootstrapNAS,这是一个用于自动生成 NAS 超网络的软件框架,它基于预先训练的模型创建超网络,然后使用先进的 NAS 技术来训练超网络,生成有效的子网络,为资源受限的边缘设备提供高效解决方案。
Dec, 2021