- 机器学习中的鲁棒反事实解释:一项调查
对于机器学习模型的预测结果影响的人来说,反事实解释(CEs)被认为是提供理想算法解决方案的。然而,最近的工作揭示了与获取 CEs 的最新方法相关的严重问题的存在,因此需要采取技术来减轻风险。在这项调查中,我们回顾了快速发展的稳健 CEs 领 - AAAI基于形状子序列的与模型无关的时间序列分类的对抗性局部解释
本文提出了一种模型无关的基于实例的事后解释性方法,用于时间序列分类。该方法利用形状特征和 TimeGAN 为任意时间序列分类器提供对抗性解释。我们通过对 UCR 时间序列存档中的几个真实单变量时间序列分类任务进行验证,结果表明与最先进的方法 - ICMLDISCOUNT: 优化输送的分布对立解释
通过将 Counterfactual Explanations 方法扩展到分布情境,引入了分布式 Counterfactual Explanation(DCE)的概念,该方法通过优化问题来推导一个与事实相吻合并具有统计置信度的反事实分布。同 - 模型多样性下的诉求问题通过论证集成
模型多样性(MM)引起了当多个性能相同的机器学习模型能够用于解决相同预测任务时的问题。最近的研究表明,在模型多样性下,可能出现对于相同输入的不一致预测。本文正式提出这个问题,我们将其称为具有回溯意识的集成,并确定了几个希望解决此问题的方法应 - 通过结构扩散导航有结构的假设空间:生成反事实对照
通过扩散模型生成结构化数据的反事实解释,以黑盒神经网络模型为基础,并且达到与现有最先进技术相比较高的可信度、接近性和多样性。
- AAAI通过能量限制的符合性反事实来解释忠实模型
提出了一种新的算法框架,通过整合基于能量的建模和符合预测的最新进展,生成仅符合模型要求的以可信度分析为目标的柔性反事实解释。
- 基于心智模型和可解释强化学习的个性化决策支持
我们提出了一种新颖的个性化决策支持系统,它结合了心智理论建模和可解释的强化学习,以提供有效和可解释的干预。我们的方法利用强化学习提供专家行动建议,并结合心智理论建模来理解用户的心理状态和预测他们未来的行动,从而实现适时的干预。为了解释干预结 - AAAI通过多样性促进反事实鲁棒性
通过报告多个反事实,可以提供一些有意义的鲁棒性保证,这篇论文提出了一种近似算法来选择最相关的解释,并在实验中证明了其在生成鲁棒性解释方面的改进。
- 隐私保护算法方案
基于实例化反事实解释的隐私回溯路径,提供了一种端到端的隐私保护管道,可生成逼真的回溯路径。
- 通过潜在空间的解缠释义实现回归
本文提出了一种新的方法,通过首先将潜空间中的标签无关特征与预定义的输出相结合,以为预先训练的回归器生成对立解释。通过在潜空间中搜索,我们展示了该方法在回归问题设置下重要高维机器学习应用中具有竞争力。
- EMNLP解释是否是解决方案?短期和长期中的错误信息缓解
本研究比较了使用警告标签和由 GPT-4 生成的最新对抗解释来揭穿虚假信息的效果,结果表明这两种干预方法在短期和长期内都能显著减少参与者对虚假主张的自我报告信任,进一步讨论了这些发现的意义和未来基于自然语言处理的虚假信息揭穿策略的发展方向。
- 带有 s (CASP) 的反事实解释生成
自动决策的机器学习模型在贷款批准、预审保释、招聘等领域越来越普遍,但大多数模型是不透明的,无法揭示决策依据。本文专注于自动生成反事实解释的问题,采用了答案集规划和 s (CASP) 目标导向 ASP 系统。我们展示了如何计算和证明反事实解释 - 时间序列预测的反事实解释
本研究提出了一种用于时间序列预测的算法 ForecastCF,通过对原始时间序列应用基于梯度的扰动,并应用约束来引导扰动,以获得预期的预测结果。实验结果表明,ForecastCF 在反事实有效性和数据流形接近度方面优于基线模型,可以为各种预 - MMNeuroInspect: 基于神经元的调试框架通过条件可视化
通过引入神经元为基础的调试框架 NeuroInspect,该研究提供了深度学习模型的人类可解释的调试方法,其中包括对错误的因果解释、特征可视化和假相关性缓解,从而实现了对 DL 模型错误的调试和改进。
- 潜在扩散对抗解释
基于潜在扩散模型,引入了潜在扩散反事实解释 (LDCE),用以快速生成反事实实例,并专注于数据的重要、语义部分;通过新颖的共识引导机制过滤出与扩散模型的隐式分类器不一致的嘈杂、对抗性梯度,展示了 LDCE 在各种学习范式下的多样性和黑盒模型 - 朝可行的反事实解释前进:一种基于分类学引导的模板化自然语言生成方法
通过用户调查和分类行动性的术语,我们开发了一种基于通用模板的自然语言生成方法,以改善反事实解释的理解和可操作性,通过解决现有方法的局限性,我们的方法在用户评估中得到更好的反应和结果。
- 设计以用户为中心的行为干预方案,用新颖的对照解释预防血糖异常
GlyCoach 是一个为血糖控制生成反事实解释的框架,通过对健康数据进行对抗学习来生成行动干预措施,根据用户偏好的先前知识。通过使用两个真实世界数据集和外部模拟器进行广泛评估,GlyCoach 在模拟辅助验证中实现了 87%的敏感性,在生 - 借助反事实知识蒸馏来纠正 Clever-Hans 预测器
本文介绍了一种被称为反事实知识蒸馏 (CFKD) 的新技术,通过人类专家反馈帮助检测和消除深度学习模型对混淆因素的依赖。该技术在受监管或安全关键领域有着重要作用,论文还展示了反事实解释相对于其他类型解释的优点,并提出了一个实验方案来定量评估 - 基于 PSO 的高维数据生成可操作的反事实
基于粒子群优化的高效可行反事实生成方法被提出,该算法在实际数据集上通过一组行动性指标评估,结果优于现有技术。
- 故事告诉我!基于大语言模型的叙事驱动可解释人工智能
利用大型语言模型,引入了 XAIstories,通过 SHAP explanations 和 counterfactual explanations 为 AI 预测提供直观的解释。研究结果表明,XAIstories 可能成为真正解释和理解