- 带有一些未知因子的提升因子图
使用代表不可区分对象的提升技术,本文研究了在概率图模型中如何有效地进行查询回答并保持精确答案;引入了 LIFAGU 算法以识别包含未知因子的因子图中对称子图,并实现已知势能向未知势能的传递,以确保良定义语义并进行(提升的)概率推断。
- Bethe 自由能逼近的凸性和可靠性
通过分析 Bethe 自由能在其定义域的子流形上的平凸性,本文提出了两个基于 Bethe Hessian 矩阵的确定性属性的充分条件,用于验证 Bethe 逼近的可靠性,并建议了 BETHE-MIN 算法用于高效地找到 Bethe 自由能的 - 马尔可夫流匹配:用连续正规化流加速 MCMC
通过建模生成概率路径的向量场,连续归一化流(CNFs)利用神经网络学习参考密度与目标密度之间的概率路径。本文重新利用流匹配(FM)方法,结合马尔可夫采样方法评估 FM 目标和使用学习的概率路径改进蒙特卡洛采样,将该方法用于概率推断。我们提出 - 张量网络与微分编程时代的概率推理
提出了基于张量网络的概率图模型推理任务解决方法,包括计算配分函数、计算模型中变量集的边缘概率、确定变量集的最可能赋值以及根据不同变量集边缘化后确定最可能赋值,并通过与量子技术的集成得到了明显的改进。
- 通过插值进行推理:对比表示可证明地实现计划和推理
给定时间序列数据,本论文展示了如何利用对比学习获得紧凑的、闭合形式的解来回答 “未来会发生什么?” 和 “我们是如何到达这一点的?” 这些概率推断问题在高维观测时很具有挑战性。我们通过对时间序列数据应用一种变体的对比学习方法来实现这些问题的 - 临界性排序循环均场伊辛求解器
使用基于循环神经网络的高效 Ising 模型求解器 CoRMF,通过引入临界性排序的自旋序列,实现基于自回归均场分解的概率演算,大大提高了对正向 Ising 推理问题的效率。
- 推理和学习统一描绘的抽象推论
基于神经科学中贝叶斯方法对脑功能的启示,我们提出了一个简单的概率推断理论,用于统一描述推理和学习。我们通过符号逻辑中知识的可满足性模拟数据如何引发符号知识的过程,即抽象过程和选择性无知。我们讨论了推理的逻辑后果关系以及基于实验证据的 MNI - 基于贝叶斯优化的课程学习提升自主驾驶深度强化学习方法的环境鲁棒性
通过贝叶斯优化进行概率推理的课程学习方法在自主赛车避障领域表现优于基准的深度强化学习代理与手工设计的课程。
- 强化学习中的概率推理正确实施
强化学习中,通过马尔科夫决策过程的图形模型,以概率推理的方式对各状态 - 行为对的访问概率进行研究。本研究采用贝叶斯方法,严格处理了状态 - 行为优化的后验概率,并阐明了其在马尔科夫决策过程中的流动方式。通过引入变分贝叶斯近似方法,得到了一 - deep-REMAP: 使用正则化多任务学习参数化恒星光谱
利用 PHOENIX 库的丰富合成光谱和 MARVELS 调查的观测数据,我们开发了一种名为 deep-REMAP 的深度正则化集成多任务学习框架,利用先进的机器学习技术准确预测恒星大气参数,从观测光谱中确定有效温度、表面重力和金属 lic - 总变差距离估计像概率推断一样简单
通过图模型和概率推理,本论文建立了总变差距离的新连接,提出了一种有效的降维方法,实现了对有界树宽的贝叶斯网分布进行总变差距离的估计。
- 超越一阶逻辑的提升推理
据我们展开的 C² 的领域扩展,任何 C² 句子在其关系受限于表示有向无环图、连通图、树(或有向树)、森林(或有向森林)时仍保持领域可提升,这提供了一个计算组合结构的通用框架。
- 概率程序中的整数算术扩展
通过利用整数操作的逻辑结构,我们提出了一种用于离散分布的二进制编码策略,并结合知识编译进行精确的概率推断,从而扩展到更大规模的整数分布。
- 安全强化学习作为 Wasserstein 变分推理:可解释性的形式方法
本研究提出了一种新颖的自适应 Wasserstein 变分优化(AWaVO)方法,利用正式方法提供奖励设计、训练收敛的透明度和顺序决策的概率解释,解决了序列决策问题中奖励函数的解释和相应最优策略的挑战。
- 基于神经模拟的事件集层级推理
本文介绍了一种利用神经估计器进行概率推断的方法,针对具有层次结构的模型,从实际应用的角度出发,利用粒子碰撞数据和强引力透镜观测数据进行案例研究并得出相应的结论。
- 基于深度高斯马尔科夫随机场的图结构动态系统
该论文提出了一种基于图结构状态空间模型的概率推理方法,利用深度学习和高斯马尔可夫随机场的有原则的推理方法,定义简单的空间和时间图层,并通过变分推理从单个时间序列中高效地学习出灵活的时空先验分布,可缩放地采样出闭合的后验。
- 可扩展神经概率答案集规划
提出了 SLASH 概率编程语言,通过神经概率谓词和逻辑编程实现了可管理的概率推理,可以进行各种类型的概率查询,并在多个任务上取得了良好的表现。
- 约束型近端策略优化
本文提出了一种名为 CPPO 的新型一阶可行方法,将受限强化学习问题视为概率推理问题。通过计算 E 步骤中的最优策略分布,并对当前策略进行一阶更新以调整至 E 步骤中获得的最优策略,解决了受限强化学习方法中二阶优化或原始 - 对偶框架的复杂 - 神经符号学习的语义强化
该论文探讨如何利用神经符号方法求解具有约束条件的优化问题,为此提出一种计算约束条件之间的互信息的方法,并在三个任务中进行了测试,证明了该方法在提高性能的同时,避免了计算上的复杂性。
- 带有有向无环图公理的加权一阶模型计数
该论文研究的是加权一阶模型计数问题 (WFOMC),主要关注于能够在多项式时间内进行 WFOMC 的逻辑片段,其中包括经过拓展的两变量一阶逻辑碎片及其衍生的包含计数量词的逻辑碎片,通过在关系上添加定向无环图 (DAG) 公理,这篇论文对子领