非凸目标的鲁棒优化
本文研究了一类鲁棒优化问题,提出了两种设计逼近算法的方案,一种适用于线性目标函数的问题,另一种则基于乘性权重更新方法,并证明了这些算法在特定条件下具有不错的逼近比例,可用于求解离散优化问题中的独立集、子模函数等问题。
May, 2018
研究了具有先验未知约束的贝叶斯优化及其在优化问题中的应用,并提供了解决此类问题的通用框架,并在潜在 Dirichlet 分配,神经网络调整和哈密顿蒙特卡罗优化等问题中进行了有效性实证。
Mar, 2014
本文通过使用最大平均偏差(MMD)来度量分布转移,研究了分布鲁棒优化的问题,在零阶、有噪音的优化设置下,提出了一种新颖的分布鲁棒贝叶斯优化算法(DRBO)。实验证明我们的算法在多个设置下能够获得次线性的稳健后悔的实现。
Feb, 2020
在分布鲁棒学习中,我们引入了基于对抗性矩违规的新的极小极大目标,并展示了通过最小化该目标等效于最小化与真实条件期望的最坏情况下的 $l_2$ 距离,从而在计算成本上提供了大体量的经验性节省。
May, 2024
通过将贝叶斯非参数理论和最近一些决策理论模型的平滑模糊厌恶偏好相结合,我们提出了一种新颖的鲁棒准则,并与标准的正则化经验风险最小化技术之间建立了新颖的联系,从而为优化过程提供了有利的有限样本和渐进统计保证。
Jan, 2024
该研究提出了针对单个和多个背包约束下的单调次模最大化的首个对抗鲁棒算法,具有可扩展的分布式和流式实现。性能评估结果表明,与现有非鲁棒算法的自然鲁棒化相比,该算法对于大型社交网络图等输入具有最佳的目标结果,并表现出极强的性能,即使与提前给出拆除集合的线下算法相比也是如此。
May, 2019
本文提出一种基于贝叶斯优化的方法用于有噪声的随机实验,通过利用贪心批量优化和拟蒙特卡罗逼近,有效地优化了多个连续参数,并在 Facebook 进行的真实实验中验证了其性能。
Jun, 2017