本文提出了一种基于神经网络学习的控制变量方法,该方法在数值计算中应用广泛,可显著减少蒙特卡罗估计的方差,其中包括热力学积分和强化学习。
Jun, 2018
本文介绍了使用控制变量的方法来减少渐变方差的影响,提出了一种贝叶斯风险最小化框架来定量评估这一方法的效果,并表明使用大量控制变量结合的方法显著提高了推理的收敛性。
Oct, 2018
本文研究马尔可夫链蒙特卡罗、随机梯度 Langevin 动力学、控制变量、计算成本和零方差控制变量等相关问题,提出了一种用于减少方差的 log 后验梯度估计方法,并分析了其在 SGLD 中的应用,发现在目标分布满足对数凹的假设下,对于任意数据集规模的情况下,其运算成本与数据集大小无关,并且研究了零方差控制变量技术的应用,可以通过减少 MCMC 输出的方差来提高算法的推断效果,并分析了由 SGMCMC 计算的嘈杂的梯度估计量对方差减少的影响。
Jun, 2017
本文提出了一种使用控制变量的 Plackett-Luce 分布来进行离散潜在变量学习模型的随机梯度下降的方法, 能够在非可微、离散和连续数据的因果关系学习任务中胜过其他对比松弛优化方法。
Nov, 2019
本文讨论了如何应用随机逼近技术对不可计算的贝叶斯后验分布进行变分逼近的可能性,同时提出了控制变量的概念以减少方差,并提出了一种称为随机线性回归的方法来降低方差。通过一些假设,本文推导出了一种理想的控制变量集合,并证明其与我们之前提出的随机线性回归方法密切相关。通过简单的例子,本文表明了我们的控制变量构造方法可以显著降低估计量的方差。
Jan, 2014
基于控制变量的独立 Metropolis 采样器使用提议密度进行方差缩减计算策略,可在 KL 散度条件下对密度进行估计,以较粗糙蒙特卡洛估计器具有更小的渐近方差,同时不需要额外的计算代价,但假设提议密度下的函数期望值在分析上是可用的。研究通过计算带有先验 - 似然冲突和非共轭先验的线性回归模型的边际似然,验证了该结果。此外,我们提出了一种自适应独立 Metropolis 算法,通过调整提议密度以减小其与目标之间的 KL 散度,可在贝叶斯逻辑回归和高斯过程回归问题中应用,并且严格对易验证和基本的最小条件进行了理论说明。
Jun, 2024
本研究提出了一种控制变量方法,通过引入更广泛的基线函数来解决强化学习中策略梯度估计的大方差问题,实验证明该方法显著提高了最先进的策略梯度方法的样本效率。
Oct, 2017
本文针对基于马尔可夫链的方差缩减问题提出了一种基于加性控制变量和最小化适当的渐进方差估计值的方法,重点研究了控制变量表示为深层神经网络的特殊情况,并在基于底层马尔可夫链的各种遍历性假设下,推导出了渐进方差的最优收敛速率。该方法基于方差缩减算法和函数逼近理论的最新结果。
Apr, 2023
本文研究了针对 Wasserstein 距离的多种变量减少方法(包括 SAGA Langevin 扩散、SVRG Langevin 扩散和控制变量欠阻尼 Langevin 扩散)的收敛性保证,同时对后验分布进行了一致的假设:光滑、强凸和 Hessian Lipschitz。通过一种新的证明技术,结合了有限和最优化与抽样方法分析的思想,我们得到了尖锐的理论上界,可以确定每种方法比其他方法更好的兴趣范围,并通过对真实世界和合成数据集的实验验证了我们的理论。
Feb, 2018
本文研究贝叶斯推断问题,特别关注于最近引入的斯坦变分梯度下降方法,介绍了该方法的交互粒子系统构建;并通过研究选择合适的正定核函数的问题,提出采用调整尾部的某些不可微核函数,证明在各种数值实验中这种方法具有明显的性能提升。
Dec, 2019