本文提出一种针对子模函数的数据学习算法,可用于数据概括、特征选择和主动学习等机器学习领域。通过将贪婪最大化算法的输出解释为项目序列的分布,本文提出一种可微的方式对模型进行优化。实证研究表明,该方法对解决实际场景中的推荐和图像概括等问题有较好的效果。
Mar, 2018
通过开发近似算法解决具有组内公平性约束的单调子模函数最大化问题。
Apr, 2023
本文提出了一种适用于分布式计算的子模函数最大化方法 GreeDi,该方法可在 MapReduce 框架下实现,初步实验表明该方法可应用于大规模机器学习任务中的子模优化问题,如稀疏高斯过程推断和样例聚类等问题,且在一定的自然条件下,可以达到接近于传统集中式计算模式下的性能表现。
Nov, 2014
本研究探讨了在一般的向下封闭凸约束下最大化非单调 DR-submodular 连续函数的问题,通过研究其几何属性提出了两种具有漂亮保证的优化算法,并扩展到更广泛的广义 DR-submodular 连续函数类以适用于更多应用场景。
Nov, 2017
本文提出了鲁棒次模函数最大化及其在结构组合约束下的有效算法,旨在提高对次模优化的建模范围,尤其应用于单个或多个基序,背包以及具有分散鲁棒性的标准约束条件,该算法适用于离线和在线设置,并且在线问题的双标准解决方案具有 sub-linear 的遗憾。
Oct, 2017
文章提出了一种基于离散半微分的无约束和有约束子模函数优化的实用强大新框架,旨在为子模最小化和最大化问题提供统一的范例,并为解决这些问题提供了新的算法,该算法能够多次计算和高效率优化子模半梯度。作者还分析了该算法的理论性质,并进行了支撑的经验实验,证明其在最大化问题上的优秀表现。
Aug, 2013
本研究关注机器学习、优化和控制中的鲁棒优化问题,在面临多种故障或攻击时,提出了首个可扩展的曲率相关算法,用于近似求解单调子模目标函数,保证了优秀的逼近性能,并使用实验证明了该算法的有效性。
Mar, 2017
该论文研究了如何将随机梯度下降等连续优化算法应用到离散问题中的子模优化,通过将扩展线性化处理并通过向上投影处理,得到离散解,针对加权覆盖函数进行研究,实验表明,该方法在保证最优近似率的同时,大幅降低了计算成本。
通过提出一种新颖的分布式界限算法,并使用多轮基于分区的分布式贪心算法,此论文解决了子集选择问题,能够在没有或极小损失质量的情况下,找到高质量的子集。
Feb, 2024
本研究提出了一种分布鲁棒的随机优化框架,利用凸形式化来解决学习模型受到数据生成分布扰动的问题,并通过多项收敛性保准来证明模型的可靠性,同时也得出了极限定理及有关泛化到未知人群、精细化认知等真实任务的证据。
Oct, 2018