本文提出了一种适用于分布式计算的子模函数最大化方法GreeDi,该方法可在MapReduce框架下实现,初步实验表明该方法可应用于大规模机器学习任务中的子模优化问题,如稀疏高斯过程推断和样例聚类等问题,且在一定的自然条件下,可以达到接近于传统集中式计算模式下的性能表现。
Nov, 2014
通过将现有算法从顺序设定应用到分布式设定,仅利用恒定数量的MapReduce循环,在许多设置中实现了接近最优的近似比率。我们的技术还为满足矩阵约束的非单调最大化提供了快速的顺序算法。
Jul, 2015
本文提出了新的算法解决通过分配数据任务和负载均衡来实现大规模机器学习的submodular partitioning问题,并在图像分割中也取得了很好的表现。
Oct, 2015
该篇论文提出了一种针对固定容量的分布式子模型最大化的框架,应用于广泛的算法和约束条件,并且为任何可用容量提供近似因子的理论保证,并在多个数据集上进行了实证评估,表现竞争性与中心化贪婪算法相当。
May, 2016
本文提出的随机剪枝方法(称为“子模函数稀疏化(SS)”)能够减少子模最大化的成本,并在新闻与视频摘要任务中显著降低计算成本和内存使用率,同时保持(甚至略微超过)处理原始数据集的成果。
Jun, 2016
该论文提出了首个一次遍历的流算法,用于求解子模最大化问题,采用数据采样,能够在各种情况下获得最紧密的逼近保证,同时具有最小的内存占用和对函数评估数量的最低要求,试验表明该算法在进行大规模机器学习问题的子模最大化时能够将其表现提高50倍以上
Feb, 2018
通过开发近似算法解决具有组内公平性约束的单调子模函数最大化问题。
Apr, 2023
非单调子模最大化问题和打包约束下的子模并行算法设计优化和逼近
Aug, 2023
通过提出一种新颖的分布式界限算法,并使用多轮基于分区的分布式贪心算法,此论文解决了子集选择问题,能够在没有或极小损失质量的情况下,找到高质量的子集。
Feb, 2024
我们描述了一种并行的近似算法,用于在分布式内存多处理器上最大化满足遗传约束的单调次模函数。
Mar, 2024