通过使用神经网络近似技术,我们提出了一个名为 Neur2BiLO 的框架,用于解决具有整数变量的约束双层问题。Neur2BiLO 能够快速产生高质量的解决方案,适用于多种具有线性或非线性目标 / 约束和整数或混合整数变量的问题。
Feb, 2024
双层优化是指将下层能量函数的最优解作为上层感兴趣的目标的输入特征。本文说明了一系列图学习技术可以被重新解释为双层优化的特殊情况或简化形式,并提出了更灵活的能量函数类,形成图神经网络的消息传递层。此外,本文探索了与非图神经网络图学习方法的密切联系,并通过实证结果展示了所提出的双层优化方法的多样性。
Mar, 2024
本文提出了一种改进的双层模型,该模型利用自动差分算法优化了双层模型的公式,并在数据超级清理和超级表示学习等两个任务中进行了理论和实验评估,结果显示新模型的性能优于当前双层模型。
Sep, 2020
使用深度学习模型在优化流程中的有效性进行了论证,通过将图卷积分支限界与经典的分支限界算法相结合,实现了更快速的解决旅行商问题的路径的识别。
Jun, 2024
本篇研究提出 Differentiating through Bilevel Optimization Programming (BiGrad) 模型,旨在将 Bi-level Programming 加入到神经网络中,通过类别估计算法以降低计算复杂度并支持对于连续变量的处理。实验结果表明,该模型成功地将传统单层方法扩展到了 Bi-level Programming
Feb, 2023
本文研究了在网络上进行分布式双层优化问题,提出了一种基于谣言传播的分布式双层学习算法,证明了该算法对于一般非凸双层优化和强凸优化具有最优的样本复杂度,并在多项任务进行的两个例子中进行了测试。
Jun, 2022
在这篇论文中,我们考虑了分散网络中的双层优化问题,提出了一种针对具有强凸下层问题的分散式双层优化的新型单循环算法。我们的算法完全是单循环算法,在逼近超梯度时不需要进行复杂的矩阵向量乘法。此外,与现有的分散式双层优化和联邦双层优化方法不同的是,我们的算法不需要任何梯度异质性假设。我们的分析结果显示,该算法达到了迄今为止双层优化算法的最佳收敛速度。
Nov, 2023
研究了分散设置下非凸强凸双层优化问题,在确定性和随机双层优化问题上设计了分散算法。分析了算法的收敛速度,包括在代理间观察到数据异构性的情况。通过对合成和真实数据的数值实验表明,所提出的方法是有效的。
本篇综述论文研究了基于梯度的双层优化方法在深度学习中的应用和发展,通过探讨单任务和多任务优化问题的双层公式和四种优化器的应用,展示其在优化超参数和提取元知识方面的实用性和高效性,最后指出其广阔的科学问题应用前景。
Jul, 2022
设计了一种名为 BO-REP 的新的双层优化算法,用于解决具有潜在无界平滑性的神经网络在双层优化问题中的挑战。证明了在随机环境下,该算法需要大约 1/ε^4 次迭代来找到一个 ε- 稳定点,结果与有界平滑度设置和没有均方平滑性的随机梯度的最新复杂度结果相匹配。实验证明了所提出算法在超表征学习、超参数优化和文本分类任务中的有效性。
Jan, 2024