对比解释:结构模型方法
利用结构方程来建模反事实,我们提出了(因果)解释的新定义。基于伴随论文中定义和推动的实际原因的概念,本文提出的解释是一个未知但如果被证明是真的,无论代理人最初的不确定性如何,都将构成被解释事实的实际原因。我们证明了该定义正确处理了文献中的一些问题示例。
Aug, 2002
本文提出了一个新的实际原因的定义,通过建立结构方程模型来建立反事实关系,这个定义令人信服并优雅,解决了传统方法存在的主要问题,并且可以用来定义因果解释。
Jan, 2013
对四个英文文本分类数据集进行分析,通过三种不同规模的模型以及三种后期解释性方法,验证了模型解释和人类解释在对比性和非对比性设置下的一致性。
Oct, 2023
通过系统分析自然语言解释、结合归纳和演绎论证、和哲学科学中的科学解释现代观念,探讨可解释 AI(XAI)中的可解释性,并揭示自然语言解释的本质,功能,抽象维度和科学解释的含义。
May, 2022
本篇论文提出一种新颖的扩展方法,将因果关系显式编码进生成输入实例的数据以解释增加信任度和帮助用户评估解释质量的 XAI 方法,并通过实验表明该方法对于拟合黑匣子和解释稳定性均达到了比初始方法更优越的表现。
Dec, 2022
通过黑盒 / 查询访问,我们提出了两种对比解释方法:一种是效率较高但需要多次模型调用的近视算法,另一种是主要算法贡献的预算算法。我们展示了这些方法在不同自然语言任务中的有效性,例如开放文本生成、自动红队战术和解释对话衰退。
Jun, 2024
通过研究文献,我们发现因果关系和可解释人工智能 (XAI) 是紧密联系的,彼此之间存在三种关系视角:缺乏因果关系限制了当前人工智能与可解释人工智能方法的发展,理想的解释形式的探索,以及因果关系作为可解释人工智能的先导,并通过从因果关系中借用概念、利用反事实以及将因果模型作为自我解释等方式进行研究。通过提供相关软件解决方案,我们为自动化因果任务提供了补充分析,并强调了因果关系和可解释人工智能领域之间的潜在领域桥梁和可能的限制。
Sep, 2023