通过搜索子句空间学习概率逻辑程序的结构
我们提出了一个逻辑/数学框架来进行参数化逻辑程序的统计参数学习,包括 HMM、PCFG 和贝叶斯网络,同时我们也提出了一个新的 EM 算法——图形 EM 算法,并在实验中对其性能进行了验证。
Jun, 2011
探讨了分布语义的适用范围和计算查询概率的有效性,提出了用于将概率程序转换为普通程序,并应用SLG分辨率和答案包含进行计算的算法“基于表和答案包 计算的概率推理(PITA)”来计算查询的概率。
Oct, 2011
本文旨在开发高效的推理算法,将概率逻辑程序和查询、证据转换为加权CNF公式,将推理任务视为加权模型计数,使用最先进的方法探究多种程序转换和加权CNF推理方法,并在实验中展示了新方法相对于现有技术的优势。
Feb, 2012
本文研究了一种具有概率注释的逻辑程序,并探讨了如何通过将程序和查询转换为加权布尔公式的方式,实现计算边际值、学习参数估计等推理任务,并通过预期最大化算法实现参数估计,实验结果证明,该方法可以提高概率逻辑编程的状态水平,并从解释中学习到程序的参数。
Apr, 2013
本文提出LP$^2$算法来解决概率逻辑编程中的查询问题。LP$^2$是通过将Generalized Counting First Order Variable Elimination (GC-FOVE) 转换为Prolog Factor Language (PFL) 实现的,并增加了两个新的操作符来处理异构因子。结果表明该方法有潜力超过PITA和ProbLog2。
May, 2014
本文提出了两种优化方法用于针对 PSL 的结构学习,一种是基于贪心搜索的算法,另一种是结合生成子句的数据驱动和针对性能的伪似然性段分段优化(PPLL)目标的算法, 在五个实际任务中的比较表明 PPLL 实现了数量级运行时加速和 AUC 增益高达 15%以上。
Jul, 2018
本书介绍了概率编程的基础和技术,主要包括概率编程语言的设计和构建、基础推理算法和高阶概率编程语言、概率编程与可微分编程的交叉应用,尤其是深度概率编程系统的设计与语言特性对其的影响。
Sep, 2018
DeepProbLog是一种神经概率逻辑编程语言,通过神经谓词结合深度学习。它支持符号和子符号表示和推断、程序归纳、概率编程和深度学习,并结合了通用神经网络和表达式概率逻辑建模和推理。
Jul, 2019
本文介绍了一种混合概率逻辑编程语言 DC#,它将分布式子句的语法与贝叶斯逻辑程序的语义原则集成到一起。该语言以质量为基础表示了三种独立性,并引入了可扩展的推理算法 FO-CS-LW,该算法是 CS-LW 的一阶扩展,结合了一阶统一和规则组合。
Jan, 2022