A* 抽样
本文考虑了在连续域上全局优化函数的问题,采用高斯过程方法将问题转化为连续赌臂机问题,并证明了在 Thompson Sampling 方法下,其顺序点收敛到全局最优解,且具有自适应收敛速度。
May, 2017
利用鲁棒的学习算法,我们研究了如何适应任意目标函数的采样分布以寻找良好的局部最优解。我们的研究结果表明,我们的自适应采样器可以为实践中出现的组合优化问题提供有效的解决方案。
Feb, 2018
本文介绍了使用 Gumbel-max trick 从分类分布中抽样的方法,并概述了该方法的扩展,包括从结构化领域中抽样、多重抽样、通过渐变估计神经网络优化中的误差反向传播等,并提供了以 Gumbel 为基础算法的机器学习文献综述、常见设计选择以及未来展望。
Oct, 2021
通过广义化 Gumbel-max 技巧,对子集采样实现连续松弛以提供可重参数梯度,应用于机器学习中的特征选择、深度随机 k 最近邻模型和参数 t-SNE 等任务中,提高了模型性能。
Jan, 2019
研究了在大规模贝叶斯推理和图形模型中出现的高度依赖性离散随机变量抽样问题,结合多臂赌博问题提出了一种有效的近似解决方案,通过实验评估证明了在合成和实际大规模问题中的高效性。
Jun, 2015
该研究论文介绍了连续时间贝叶斯网络的一种新的采样方法 ——Gibbs 采样,以解决对多组件过程进行精确推理的困难。该方法可以适应进程的自然时间尺度,减少计算成本,并提供渐近无偏的近似。
Jun, 2012
该论文研究贝叶斯学习中常见的最大后验估计和后验分布采样的计算任务,证明在非凸情况下后验分布采样有时比优化更快,并展示两者在计算复杂性上的不可比较性,呈现出计算复杂度的急剧相变。
Nov, 2019
本文介绍了蒙特卡洛仿真的泊松过程模型,解释了如何通过扰动和最大化质量函数来完成对离散分布的采样。并通过构建随机函数的方法用于无限空间中的泊松过程模型,综述了 A * 采样和 OS * 采样两种不同蒙特卡洛方法。
Feb, 2016
我们提出了一种基于逐步降低不确定性原则的算法,将优化视为当前最佳解以下偏移集的序列降低,并选择提供最高预期降低的点的采样策略,避免使用繁琐的模拟,并在数值例子上进行了测试,结果表明它在探索和集中之间提供了有效的权衡。
Oct, 2013