上下文感知型特征归属分析
解释性 AI 的一个关键问题是如何解释 Argumentation Frameworks (AFs) 的推理结果,而定量推理结果在 gradual semantics 下的解释尚未得到广泛关注。本文提出了一个新的 Argument Attribution Explanations (AAEs) 理论,通过在 Quantitative Bipolar Argumentation Frameworks (QBAFs) 中引入机器学习中的特征归因理念,研究 AAEs 的理论性质,并通过两个案例研究验证了 AAEs 在假新闻检测和电影推荐系统中的应用性。
Jul, 2023
该研究提出一种将基于因子分解的模型与论证框架相结合的新模型,通过在模型的每个阶段提供明确的含义,使其能够产生易于理解的推荐解释,并能够结合用户上下文等附加信息实现更准确的预测。
May, 2024
本文提出了一种基于放松的功能依赖概念的特征选择 / 归因的正式化方法,通过在合成数据集上计算基本真实的归因,评估了许多最先进的归因方法,并展示了即使在优化时,某些归因方法也无法验证所提出的属性并提供错误的解决方案。
Apr, 2021
提出一个称为 Controllable fActor Feature Attribution (CAFA) 的方法,将特征划分为可控和不可控部分来计算相关特征的相对重要性,使用 CAFA 算法在现有数据集和 COVID-19 的非药物控制措施数据集中测试,得到的实验结果表明,使用 CAFA 算法的解释可以排除不可控特征的影响,同时保留完整的数据集进行预测。
Mar, 2022
人工智能和机器学习模型的广泛应用与一系列相关问题需要可解释的人工智能。形式特征归属是一种新的方法,定义了特征重要性作为包含给定特征的正式反演解释的比例。本文提出了一种高效的启发式算法以适应性地近似形式特征归属,在多个常用数据集上的实验结果表明了所提方法的有效性。
Dec, 2023
近年来,神经网络展示出了从原始数据中识别复杂模式和关系的卓越能力。然而,理解这些黑盒模型的内部机制仍具挑战性,但对于高风险决策至关重要。我们的研究通过调查解释的基本和分布行为来解决这种困惑。此外,通过全面的模拟研究,我们展示了常见缩放和编码技术对解释质量的影响,评估它们在不同效应大小中的功效,并展示了基于排序的评估指标的不一致性的来源。
Apr, 2024
通过真实因果关系框架提供一种将特征归因和反事实解释统一的解释方法,通过在 Adult-Income,LendingClub 和 German-Credit 三个基准数据集上的实验,发现 Feature attribution 方法和 counterfactual explanation 方法并不总是一致的,也表明了他们之间的互补性。
Nov, 2020
本文提出了用于自然语言处理模型的新型基于梯度的特征暗示方法(Locally Aggregated Feature Attribution,LAFA),通过汇集从语言模型嵌入推导出的类似参考文本来平滑梯度,以实现对模型的解释性。该方法在公共数据集上进行了实验,包括实体识别和情感分析以及在构建的 Amazon 目录数据集上对重要特征的检测。通过实验,证明了该方法的优越性能。
Apr, 2022
本研究第一次进行用户研究来证明特征归因图对于 ImageNet 分类和 Stanford Dogs 细粒度分类的辅助作用,在更难的分类任务上,特征归因图并没有帮助,相反会降低人工智能和人类团队的性能,并且自动特征归因图评估指标与实际人工智能 - 人类团队的表现相关性较差,本研究提倡社区在人机互动的应用中对他们的方法进行严格的测试,并重新思考现有的评估指标。
May, 2021