人工智能和机器学习模型的广泛应用与一系列相关问题需要可解释的人工智能。形式特征归属是一种新的方法,定义了特征重要性作为包含给定特征的正式反演解释的比例。本文提出了一种高效的启发式算法以适应性地近似形式特征归属,在多个常用数据集上的实验结果表明了所提方法的有效性。
Dec, 2023
我们研究了后事解释型人工智能方法中的不确定性,并提出了一种修改基于 LIME 的算法中抽样密度的相对复杂度测量方法,以帮助不同的解释算法实现更紧密的置信水平。
Nov, 2023
通过人类实验,我们发现属性解释法在某些情况下会导致决策者做出更糟糕的决策,这一结果挑战了应用这些方法的普遍好处的假定,在可解释的 AI 研究中人类评价的重要性下应该得到重视。
Dec, 2020
可解释人工智能(Explainable Artificial Intelligence)通过提供准确、一致且稳定的解释,解决机器学习中黑盒模型的透明度问题,其中基于泰勒展开的 T-Explainer 成为了一种有效的特征归因方法。
Apr, 2024
本文探讨了 Explainable AI 在医疗领域应用的可靠性问题,提出了对于像电子病历这样结构化数据的场景,特征归因方法仍能够发挥有意义且有用的作用。同时,文章对于通过语义匹配来评估特征重要性的方法提供了一个简单的流程。
Jan, 2023
本研究为了实现边缘设备上的实时可解释人工智能(XAI),利用可配置的 FPGA 设计和优化算法提高多种特征归因算法的灵活性和性能,并演示了通过分配硬件资源的有效重复使用的路径,以最小化部分准确性损失。
Oct, 2022
对基于梯度的解释方法进行了系统的探索和分类,并介绍了技术细节的实质和算法的演化,同时提出了使用人工和定量评估来衡量算法性能的挑战,为研究人员提供了对最新进展和相关缺点的了解,并激发了未来解决这些问题的兴趣。
Mar, 2024
本文探讨了可解释人工智能领域中的两种热门解释方式 —— 特征归因和反事实解释,并建立了它们之间的理论联系,证明了它们在一定条件下是等效的,同时进行了实验,验证了这一理论发现。
Jul, 2023
解释性人工智能(XAI)领域旨在解释黑盒机器学习模型的工作方式,而选择合适的方法以及衡量本地解释的忠实度的当前指标缺乏一致性,使得使用者在选择最忠实的解释时感到困惑。
这篇论文提出了一种新的算法,通过回答一些鲁棒性问题来计算正式解释,从而消除了正式解释的可扩展性限制,并通过推理某些目标鲁棒度的术语来推广正式解释的定义。
Jun, 2023