Jul, 2023

基于生成神经网络的超高维非凸全局优化

TL;DR我们提出了一种非凸优化算法元启发式方法,基于深度生成网络的训练,能在连续、超高维度的空间中实现有效搜索。通过网络训练,利用采样的局部梯度种群在定制的损失函数内,将网络输出分布函数演化朝向高性能最优点的一个峰值。深度网络架构根据训练过程进行渐进增长,使得该算法能够处理高维空间的维度困境。我们将这一概念应用于一系列标准优化问题,维度高达一千,证明我们的方法在较少函数评估下表现更好,超过了现有算法基准。我们还讨论了深度网络超参数化、损失函数设计和适当网络架构选择在优化中的作用,以及采样的局部梯度所需的批量大小与问题维度无关。这些概念为一类利用可自定义和表达性强的深度生成网络来解决非凸优化问题的算法奠定了基础。