Jun, 2019
可解释的概率答集编程事实检查
Explainable Fact Checking with Probabilistic Answer Set Programming
Naser Ahmadi, Joohyung Lee, Paolo Papotti, Mohammed Saeed
TL;DR本文介绍了一个基于知识图谱的事实检查方法,利用其中的语义表示和逻辑规则进行推理,以产生可解释的结果。实验表明,这种基于概率推理的方法比现有技术水平更具准确性。
Abstract
One challenge in fact checking is the ability to improve the transparency of
the decision. We present a fact checking method that uses reference information
in →
发现论文,激发创造
FactKG: 通过知识图谱推理进行事实验证
介绍了一个名为 FactKG 的新数据集,该数据集包含 108k 个自然语言声明及其相关类型的推理,旨在通过推理知识图谱来进行事实验证,并开发了基于这些推理类型的基线方法,以提高知识图谱的可靠性和实用性。
May, 2023
利用逻辑编程和语言模型回答知识图谱中的问题
本文提出了一种利用经典逻辑编程语言来装备大型语言模型(LLMs)的方法,以在知识图谱(KG)上回答自然语言问题,从而提供可解释性解决方案。作者使用 MetaQA 数据集证明了该方法的有效性。
Mar, 2023
通过问答实现的基于 5W 方面的事实验证
本文提出了一个基于 5W 问答的可解释性事实验证框架,使用语义角色标记系统定位 5W 并生成 QA 对,我们获得了一个半自动生成的 FACTIFY-5WQA 数据集,并提出了一个基线 QA 系统自动定位从证据文件中的答案。最后,我们提出了一个强大的事实验证系统,可以对改写的声明进行自动验证。
May, 2023
基于概率逻辑的常识表征框架:用于建模具有多个前提和变化可能性的推理
本论文研究如何更好地表示常识知识,提出了一种概率逻辑表示方案和一种层次化概念本体论,能够更灵活地表示信念,并在神经符号应用中使用。通过专家注释和群众众包,将这个框架扩展到 PrimeNet 知识库,并展示其在更易解释的语义解析和问题回答中的应用。
Nov, 2022
公共卫生宣称的可解释自动事实检查
该研究是针对需要特定专业知识的领域的事实核查的第一项探索性研究,提出了可解释的事实核查模型,并针对公共卫生领域构建了一个新的数据集进行案例研究,结果表明,通过对特定领域的数据进行训练,可以提高自动化事实核查的可解释性。
Oct, 2020