非对称行列式点过程可伸缩抽样
本文提出了一种基于状态较好的拒绝抽样算法的可扩展 MCMC 采样算法,用于 kdeterminantal point process,使其在低秩核下的运行时间为 n 的次幂;进一步将其扩展到没有大小限制的 NDPP。实验结果表明,我们的方法比现有的采样方法快得多。
Jul, 2022
本文介绍了一种线性复杂度的基于 NDPP 内核分解的学习算法和一个线性复杂度的最大后验概率推断算法,使用这些算法可以更好地进行数据集的子集选择,缩短计算时间,并且提升了预测性能。
Jun, 2020
本论文提出了一种自适应算法用于在大型数据集中编织小型数据集,从而提高 $k$-DPP 采样算法的性能,并确保所生成的样本集合与原始数据集的目标分布相一致。
Jun, 2020
这篇文章介绍了 $LU$ 和 $LDL^H$ 分解的修改方法,以更有效地直接对非 - Hermitian 和 Hermitian DPP 核进行抽样,并证明在高性能的稠密和稀疏直接分解的动态调度、共享内存并行化方面,也可以轻松修改以产生基本相同性能的 DPP 抽样方案,而 Catamari 则发布了相关软件。
May, 2019
本文提出了一种新的、高效的,近似采样来自离散 $k$-DPP 的方法,该方法利用了从 DPP 采样的子集的多样性属性,并分两个阶段进行:首先,对于项的基础集合,它构造核心集; 然后,基于构造的核心子集高效地采样子集,并旨在最小化到原始分布的总变分距离。在合成和实际数据集上的实验表明,相对于以前的方法,我们的采样算法在大数据集上可以有效地工作,并生成更准确的样本。
Sep, 2015
本文研究了约束 DPPs(具有 partition 或 matroid 约束的 DPPs)采样的复杂性,提出了一种精确有效的算法,并将其解决方案表达为多项式形式。
Aug, 2016
本文介绍了行列式点过程 (Determinantal Point Processes, DPPs) 以及其在机器学习领域中的应用,比如主动学习、贝叶斯优化、强化学习和图形模型中的边缘化。同时,文章也指出了为许多与机器学习相关的设置提供了在连续域上从 DPPs 中精确采样的方法。
Sep, 2016