神经网络多目标贝叶斯优化的增强随机搜索
本文提出一种新的基于伪代理的多目标深度神经网络和硬件超参数优化方法,主要为 memristive 交叉栅极加速器设计高精度且具有硬件效率的 DNN,使用了基于贝叶斯优化的方法实现在保证硬件成本效益的前提下提高 DNN 性能,得到的 PABO 优化结果在准确性和计算速度上都优于现有最先进的方法。
Jun, 2019
本文提出了一种通过深度强化学习和神经网络实现的多目标优化问题解决方案,其中采用分解思想将问题分解为一组标量优化子问题并针对每个子问题建立神经网络模型。通过邻域参数传递策略和 DRL 训练算法共同优化所有子问题的模型参数,并利用训练好的神经网络模型直接得到帕累托最优解。其中将多目标旅行商问题作为研究对象,使用 DRL-MOA 方法建模子问题为指针网络并与其他基准方法进行对比,在实验中表现出了较强的泛化能力和快速解决速度。
Jun, 2019
我们提出了一种新的神经架构搜索算法,通过超网络对设备和多个目标进行参数化和条件化,实现了性能和硬件度量之间的权衡,并在一次搜索中获得多设备上的具有代表性和多样性的架构。在高达 19 个硬件设备和 3 个目标的大量实验证明了方法的有效性和可扩展性。最后,我们证明在不增加额外成本的情况下,我们的方法在不同搜索空间和数据集上优于现有的多目标优化神经架构搜索方法,包括 ImageNet-1k 上的 MobileNetV3 和机器翻译中的 Transformer 空间。
Feb, 2024
使用 LaMOO 优化算法在神经架构搜索任务中取得了超过 200% 的样本效率提升,并在 CIFAR10 数据集上以仅 600 个搜索样本实现了 97.36% 的准确率和仅 1.62M 参数,以及在 ImageNet 数据集上仅使用 522M 浮点操作数实现了 80.4% 的 top-1 准确率。
Jun, 2024
本文提出了一个深度学习框架,基于具有随机先验的 bootstrap 整合的神经体系结构,用于贝叶斯优化和连续决策。该框架能够在高维输出的情况下逼近设计变量和感兴趣数量之间的函数关系,测试表明该方法在优化轮毂叶片的形状等高度复杂的任务中具有明显的优越性。
Feb, 2023
机器学习模型的超参数优化是一个具有多目标的挑战性问题,本研究提出了一种多目标贝叶斯优化算法,通过统一目标规范化和随机化权重在标量化中解决了不同目标尺度的问题,并通过限制目标来提高算法效率,最后通过并行化加速了优化过程。
Sep, 2023
本文提出了一种新的多目标导向算法 MoreMNAS(Multi-Objective Reinforced Evolution in Mobile Neural Architecture Search),通过结合 EA 和 RL 的优点,将 NSGA-II 遗传算法与自然突变过程相混合,使得神经模型搜索过程中不仅能够避免模型退化,还能更好地利用已学习的知识,并在超分辨领域 SR 中进行实验,获得比某些现有技术更少的 FLOPS 令人瞩目的模型。
Jan, 2019
本文提出一种基于 Bayesian 图神经网络作为新的代理函数的方法,能够自动提取深度神经架构中的特征,并使用学到的特征来拟合和表征黑箱目标及其不确定性,将其用于应对深度神经架构搜索的挑战性任务,实验结果表明该方法在基准任务上明显优于比较方法。
May, 2019
本研究提出一种直接在特征空间中根据偏好条件来调整神经网络的多目标优化方法,通过对解决方案进行惩罚来维持小角度到偏好向量的方法确保了良好分布的 Pareto 曲线,实验证明我们的 Pareto 前缘尽管计算速度显著更快,但也达到了业内最先进的质量,并展示了其可扩展性。
Mar, 2021
本研究提出了一种混合变量、多目标贝叶斯优化框架 MixMOBO,可高效找到混合变量设计空间的最优帕累托前沿,同时确保多样解,结果表明 MixMOBO 在合成问题上表现良好。
Jan, 2022