Auto-Meta: 自动化基于梯度的元学习搜索
本文提出了一种元学习方法,利用先前的元数据自动搜索高性能的机器学习管道以完成模型选择和超参数优化,该方法结合自适应贝叶斯回归模型、神经网络基函数和贝叶斯优化的收获函数,能够在监督分类数据集上高效地搜索预定义的候选管道,实验结果表明,该方法在一系列测试数据集上能够快速确定高性能的机器学习管道,并胜过基线方法。
Apr, 2019
我们提出了一种基于采样的 AutoML 方法,主要关注神经结构搜索和超参数优化,用于解决在构建大规模容量模型时的元规模生产中的挑战。我们的方法通过使用轻量级基于预测器的搜索器和强化学习来探索广泛的搜索空间,显著减少了模型评估的数量,在 CTR 和 CVR 应用的大容量建模实验中表现出杰出的投资回报率(ROI),相对于人工调优的基准,通过从精选的搜索空间中平均抽样一百个模型,达到高达 0.09% 的归一化熵(NE)损失减少或 25% 的每秒查询量(QPS)增加。我们的 AutoML 方法已经在实际应用中取得了成效,在 Instagram CTR 模型的大规模在线 A/B 测试中达到了高达 - 0.36% 的 NE 增益(相比现有的生产基准),并显示出统计上的显著改进。这些生产结果证明了 AutoML 的功效,并加速了它在 Meta 排名系统中的采用。
Nov, 2023
本文提出了基于贝叶斯元学习的 (Meta Architecture Search) 方法,用于加速大量任务的体系结构搜索,通过学习适用于整个任务集的任务不可知表达式,实现对 NAS 的大规模高效搜索,减少计算成本,并在 Imagenet 分类任务中发现了与目前使用更少显卡宽带的超参搜索算法相当的结果
Dec, 2018
本文提出了一种高效的神经架构搜索(Neural Architecture Search, NAS)框架,基于元学习的跨模态潜空间,结合预训练的网络库和数据库,可以快速地为新数据集搜索神经架构,并且还提出了一种元性能预测器来从多个未见数据集中预估和选择最佳的神经架构。实验结果表明,该模型受过 ImageNet-1K 的元学习并结合 NAS-Bench 201 搜索空间的神经架构,在包括 CIFAR-10 和 CIFAR-100 等多个未见数据集上成功泛化,平均搜索时间为 33 GPU 秒,即使在 MobileNetV3 搜索空间下,它比具有相似性能的可转移 NAS 方法 NSGANetV2 快 5.5K 倍。我们认为这为快速 NAS 和利用累积多年的数据集和架构的知识提出了新的研究方向。
Jul, 2021
MetaNAS 是第一个将 NAS 与基于梯度的元学习完全集成的方法,可以在少量数据和计算资源的情况下适应新任务,并在少样本分类基准测试中获得最先进的结果。
Nov, 2019
本文综述了现有的方法,囊括了计算机领域中的神经体系结构搜索、自动化方法和深度学习等方面,内容包括常用的体系结构搜索空间和基于强化学习和进化算法的体系结构优化算法、模拟模型和单次模型。同时,文章对新的研究方向进行了探讨。
May, 2019
AutoCoMet 是一种智能、快速的神经架构搜索框架,利用协同规范形成的强化控制器和高保真硬件元行为预测模型,通过一般化的多准则优化形式适应各种设备硬件和任务上下文,使得深度模型架构优化比传统手动设计方法快 3 倍左右。
Mar, 2022
本文介绍一种名为隐式 MAML 的方法,用于在少量数据下实现基于梯度的元学习,能够解决通过内层优化得到的结果进行求导时的困难,从而优雅地处理多个梯度步骤,实现在少样本下的图像识别精度的提升。
Sep, 2019
在本文中,我们探索了以场景解析、人物部分分割和语义图像分割为任务的密集图像预测的元学习技术的构建,我们构造了一个有用的搜索空间并演示了即使是通过有效的随机搜索,我们也能够找到优于人工设计的架构以及在城市街景解析、人物部分分割和语义图像分割等三个密集预测任务上实现的最先进水平,同时减少一半的参数和计算成本。
Sep, 2018
本文全面介绍了自动图机器学习的方法与技术,包括超参数优化和神经架构搜索等领域。同时,我们介绍了 AutoGL 库作为全球首个面对自动图机器学习的开源库,并探讨了自动图机器学习未来的研究方向。
Jan, 2022