Nov, 2023

离散贝叶斯网络的分布鲁棒骨架学习

TL;DR从有可能被破坏数据中学习普通离散贝叶斯网络的确切骨架的问题,我们建立在分布鲁棒优化和回归方法基础上,提出通过在有界 Wasserstein 距离或 KL 散度内的一族分布上最小化最不利风险来进行优化。该最坏情况风险考虑了异常值的影响。该方法适用于一般的分类随机变量,无需假设真实性、顺序关系或特定的条件分布形式。我们提出了高效的算法,并证明了所提出的方法与标准的正则化回归方法密切相关。在渐进保证下,对于有界度图,我们证明了具有对数样本复杂性的成功结构学习。通过对合成数据集和真实数据集的数值研究验证了我们方法的有效性。代码可在 https 的 URL 中获得。