关键词kernelized stein discrepancy
搜索结果 - 7
- 基于核化斯坦差异的数据中心预测解释
该研究论文提出了一种高度准确且以数据为中心的解释方法(HD-Explain),利用核化 Stein 差异(KSD)的属性,有效地识别为测试点提供最佳预测支持的训练样本,从而达到精细化解释、一致性和计算效率的需求,提供了一种简单、有效且稳健的 - ICML基于核化斯坦距离的拟合优度检验中使用扰动改进
提出一种 KSD 检验的改进方法,通过使用 Markov 转移核函数对样本进行扰动,保证目标分布不变,从而获得比 KSD 检验更高的检验能力。
- 模型基强化学习中的 Stein 信息导向探索
本研究提出了一种基于转移模型的新型探索激励方法 STEERING,并通过内核化 Stein 差异度(KSD)计算与优化未知最优模型之间的积分概率度量(IPM),获得亚线性贝叶斯遗憾,比当前基于信息增益的模型强化学习算法表现更优。
- MM联邦贝叶斯学习的客户端选择
本文提出了两种分布式 Stein 变分梯度下降(DSVGD)选择方案,基于核化 Stein 差异度和希尔伯特内积,以提高模型收敛速度和通信效率。通过在各种学习任务和数据集上进行评估和比较,证明了这些方案在模型准确性、收敛速度和稳定性方面的优 - ICLR切片核化斯坦差异度
提出了基于切片的 Stein discrepancy 和其可扩展和带核变体,这些变体采用基于核的测试函数,定义在最佳一维投影上,用于拟合优度检验和模型学习。在高维度下的拟合优度检验以及基于不同差异训练独立分量分析模型的结果表明,所提出的差异 - 后验修正抽样的再生 Stein 核方法
该论文通过对马尔可夫链的模拟实现的采样数据的加权经验分布来修正近似抽样算法的输出,从而为相关领域的目标分布提供一致的估计量,并建立了一种普遍的再现 Stein Kernel 理论,适用于一般的 Polish 空间。
- NIPS斯坦变分梯度下降:一种通用贝叶斯推断算法
本文提出了用于优化的通用变分推理算法,它是梯度下降法的一种自然补充,可以通过一种函数梯度下降来最小化 KL 距离,从而迭代地传输一组粒子以匹配目标分布。经过在各种真实世界模型和数据集上的实证研究,我们的方法与现有的最先进的方法相竞争。我们方