本研究通过样本的简化抽样学习了一个代表复杂模型的概率分布,该模型有广泛的应用范围,包括无监督学习,主题模型和协同过滤。
Apr, 2015
我们提出了一种适用于在分布漂移下学习离散分布的新的自适应算法。
Mar, 2024
本文研究在数据的概率模型中推断一个潜在函数的问题,并探究了基于马尔可夫链蒙特卡罗采样的高效计算方法在大型数据集上的可行性,提出了一种近似方法,使潜在变量和相关参数的顺序采样能够有效地处理增长数据设置,证明了其在无序、非顺序采样下不可行的情况下的强大性能。
Jul, 2018
本文提出了一种新的参数估计技术,该技术无需计算不可处理的归一化因子或从模型的平衡分布中采样,通过建立动态算法将观测到的数据分布转化为模型分布,并通过使得数据分布与运行该动态算法的分布的 KL 散度最小化来进行优化,在 Ising 模型等情况下展示比当前先进技术更快的学习效率和更低的误差。
Jun, 2009
该研究提出了一种简单有效的方法,将概率分布嵌入再应用岭回归 算法来解决分布回归问题,同时证明该方法的稳定性和收敛速度,回答了 15 年来未解决的开放性问题,并涵盖了一系列相关的概率分布问题。
Feb, 2014
我们开发和分析了一种普适技术,可以在未知分布漂移的情况下进行学习。给定一个来自漂移分布的最后 $T$ 步的独立观测序列,我们的算法在时刻 $T$ 对当前分布进行从容学习。与先前的工作不同,我们的技术不需要关于漂移幅度的先验知识,而是根据样本数据进行算法调整。我们的算法学习了一类函数,其误差几乎与预先了解漂移幅度的学习算法相同。此外,由于我们的算法适应数据,它可以保证比依赖漂移松限制的算法具有更好的学习误差。
May, 2023
研究了从不可信批次中学习的问题,通过采用基于求和平方层次结构的算法框架,提出了在具有形状先验知识的情况下,在自然分布类中降低样本复杂度的解决方案。
Nov, 2019
该研究提出了一种新的信息导向采样的方法,它适用于在线优化问题,通过学习部分反馈,决策者需要在探索和利用之间取得平衡。
Mar, 2014
本论文提出了一种新的训练条件分布问题的方法,利用 Embedding-SGD 算法,解决了样本量小的问题,结果在合成数据及真实数据上都取得了显著的性能提升。
Jul, 2016
该论文研究了多分配学习范式的最优样本复杂度,并给出了符合最优样本复杂度的算法。其中,他们的样本复杂度界限超过了仅学习单个分布的学习的样本复杂度。
Oct, 2022