本研究提出了三种新方法(delta-CLUE,nabla-CLUE 和 GLAM-CLUE),以解决现有方法(CLUE)存在的一些问题,例如冗余解释和处理不同类型的不确定性输入,从而更好地解释不确定性估计。
Dec, 2021
提出了一种新方法,Counterfactual Latent Uncertainty Explanations(CLUE),它能够解释可微分概率模型(如贝叶斯神经网络)的不确定性估计,并能够使从业者更好地理解哪些输入模式会导致预测不确定性。
Jun, 2020
基于潜在扩散模型,引入了潜在扩散反事实解释 (LDCE),用以快速生成反事实实例,并专注于数据的重要、语义部分;通过新颖的共识引导机制过滤出与扩散模型的隐式分类器不一致的嘈杂、对抗性梯度,展示了 LDCE 在各种学习范式下的多样性和黑盒模型行为的理解。
Oct, 2023
通过 Concept-guided Latent Diffusion Counterfactual Explanations (CoLa-DCE) 方法生成概念导向的反事实解释,提供更高的控制度和更好的可理解性,以及对模型错误的帮助。
Jun, 2024
为了解决因模型变动导致已有方法无效的问题,我们提出了一种用于参数化机器学习模型的新颖区间抽象技术,能够获得可靠的对抗模型变动的证明,进而提供具备可证明健壮性的反事实解释。通过基于混合整数线性规划的验证程序,我们进一步提出了两种算法,生成具备对抗模型变动健壮性的反事实解释,并通过对比实证研究表明,我们的算法在寻找具备健壮性的反事实解释方面具有很好的效果。
Apr, 2024
本文提出了一种减少预测模型中不确定性的方法,即通过计算学习嵌入的 Aleatoric 和 Epistemic 不确定性的可微估计值,并训练一个优化器,迭代地从中减少这些不确定性,以生成一种名为 MoleCLUEs 的新嵌入,同时提供了在预测药物属性方面的结果和不同 iable 结构模拟的分析。
Jun, 2023
用可理解的人类概念来解释模型的全局解释的不稳定性问题以及提出了一种基于不确定性的贝叶斯估计方法,可以提高概念解释的可靠性。
Dec, 2023
该论文提出了 DiVE 方法,通过在分散的潜在空间中学习扰动并使用多样性强制损失进行约束,从而揭示与模型预测相关的多个有价值的解释,以防止模型产生微不足道的解释。实验证明,与之前的最新方法相比,我们的模型可以提高高质量有价值解释的成功率。
Mar, 2021
通过改进自动编码器的潜空间生成方法,该论文介绍了一种新的生成反事实解释的方法,该方法在保持输入样本特征的同时能有效地返回更接近原始数据的结果,适用于高维机器学习应用。
Jul, 2023
研究使用自然语言来训练从语言中零样本学习结构化数据的分类器,并提出一个评估标准 CLUES,其包含 36 个现实世界和 144 个合成分类任务的自然语言监督。为实现此目的,开发了 ExEnt,一种基于蕴含的模型,通过学习解释来学习分类器。
Apr, 2022