对比解释:结构模型方法
该研究提出一种基于因果关系的方法来解释黑盒决策系统,并使用概率对比反事实证明其有效性,能够为受算法决策影响的个体提供可行的补救措施。该方法不需要了解算法内部结构,能够计算全局、局部和情境层面的有效解释和补救措施。经实验证明,该方法较 XAI 的其他流行算法效果更好。
Mar, 2021
本文介绍基于因果模型生成论证框架的概念化,将 AF 的语义理解为可解释 AI 的说明模式,演示了使用双变量强化属性重新解释为说明模式来为因果模型的输出制作双极 AF 的方法,并进行了理论评估。
May, 2022
本文引入一种新的框架,基于结构因果模型范式对随机、顺序决策系统进行因果解释,该框架可以为代理行为识别多个语义上不同的解释,并建立了准确方法和多个近似技术用于因果推断,同时探讨了一些模型的灵活性与性能,并且表明了基于该框架的方法优于其他方法。
May, 2022
本文提出因果抽象理论作为高层次的AI模型解释的数学基础,使用因果抽象分析来确定可解释的高层次因果模型是否忠实反映了AI模型的行为和内部结构,同时我们还定义了近似因果抽象的概念以度量高层次因果模型对底层模型的抽象程度,并将LIME、因果效应估计、因果中介效应分析、迭代零空间投影和基于电路的解释方法形式化为因果抽象分析的特例。
Jan, 2023
通过研究文献,我们发现因果关系和可解释人工智能(XAI)是紧密联系的,彼此之间存在三种关系视角:缺乏因果关系限制了当前人工智能与可解释人工智能方法的发展,理想的解释形式的探索,以及因果关系作为可解释人工智能的先导,并通过从因果关系中借用概念、利用反事实以及将因果模型作为自我解释等方式进行研究。通过提供相关软件解决方案,我们为自动化因果任务提供了补充分析,并强调了因果关系和可解释人工智能领域之间的潜在领域桥梁和可能的限制。
Sep, 2023
DiConStruct是一种基于概念和因果关系的解释方法,目的是通过结构性因果模型和概念归因来创建更可解释的局部解释,并有效地近似黑盒机器学习模型的预测,而不影响预测任务。
Jan, 2024