本文提出了一种基于模型的搜索方法,利用混合整数规划技术生成了对树集的对抗性解释,并通过隔离森林模型针对低异常得分的合理解释进行优化。
Jun, 2021
本文旨在在战略环境下寻找最优的政策和对策解释,包括 NP 难的问题,非降性和子模性,用标准贪心算法获得近似保证。最后,我们表明通过将拟阵约束加入问题的制定中,我们可以提高对策解释的最优集合的多样性,并激励整个人口谱上的个体自我改进。
Feb, 2020
该研究提出了一种多目标反事实解释方法(MOC),将反事实搜索转化为多目标优化问题,通过对特征空间的多样性维护,返回一组不同权衡的反事实,并在实际案例中展示了 MOC 的有用性和与现有方法的对比。
Apr, 2020
由于用户需求和最近的监管(GDPR,AI 法案),AI 系统的决策需要解释。这些决策通常只能进行事后解释,其中因果解释很受欢迎。关于什么构成最佳因果解释的问题必须考虑多个方面,其中 “样本距离” 是最常见的。我们认为,这一要求经常导致不太可能的解释,因此价值有限。在这里,我们提出了一个提供高可能性解释的系统。我们展示了符合多种常见因果解释期望的最可能解释的搜索可以用混合整数优化(MIO)进行建模。在这个过程中,我们提出了一个 Sum-Product Network(SPN)的 MIO 公式,并使用 SPN 估计因果关系的可能性,这可能独立引起兴趣。对比了几种生成因果解释的方法的数值比较。
Jan, 2024
利用数学优化模型,通过集体反事实解释为给定组内各实例提供一个反事实解释,以使扰动实例的总成本在一定约束下最小化,从而检测对整个数据集都至关重要的特征,验证了该方法的实用性。
Oct, 2023
基于多标准分析的多阶段集成方法能够从 Pareto 前沿中选择一个用于解释机器学习模型预测的可行对策。实验结果表明,该方法能够生成具有吸引力的多种质量度量的可操作对策。
Mar, 2024
该研究提出了一种基于冲突检测和最大松弛的迭代方法,用于在交互式约束系统中计算对立解释,从而帮助用户理解可以应用于其现有约束的更改以使其满足约束条件。
Apr, 2022
在本文中,我们考虑了一组实例的生成对照解释的问题,其中采用一对多分配规则,其中一种解释被分配给实例的一个子组。我们首次解决了最小化解释所需数量的问题,同时考虑了稀疏性,通过限制每个解释中允许同时更改的特征数量。我们开发了一种新颖的列生成框架来高效搜索解释。我们的框架可以应用于任何黑盒分类器,如神经网络。与从文献简单地融合整数规划公式的简单适应相比,列生成框架在可扩展性、计算性能和解决方案质量方面优越。
Feb, 2024
该研究提出了一种基于形式验证的算法,使用逻辑公式表示距离函数(目标)和预测模型(约束),解决满足性问题生成最接近的反事实解释,能够生成可行的多样化反事实解释来满足 100% 的覆盖率。
May, 2019
该研究论文提出了一个灵活的两阶段算法,用于找到实例组以及具有成本效益的多实例反事实解释方法,以解决在黑盒系统中找到满足多个实例的单一反事实的问题。