本文通过在金融、医疗保健、大学招生和美国司法系统等四个领域的实际数据中审计了不同保护子组的解释质量,发现不同子组的近似质量显着不同,而解释深度学习模型的近似质量差异存在着公平性挑战,需要进一步解决。
May, 2022
本文针对黑盒分类器透明度不高的问题,研究了说明方法。但理论上和实验结果都表明,说明方法的结果不能证明算法的决策是合理、公正和可信赖的。为此,本文提出了改进的说明方法从而提高其鲁棒性。
Jul, 2020
介绍了黑盒模型的公平性与解释的相关性,强调解释并不一定能够保持算法的公平性,并提出评估和生成公平解释的未来研究方向。
Jun, 2021
通过解释的方式,我们提出了基于过程的公正度并识别了过程相关偏见,并通过优化目标设计了一种综合公正度算法,以在提高传统公正度、满足解释公正度和维护实用性能之间达到多重目标的平衡。
Dec, 2022
文章分析了 2007-2022 年间自然语言处理领域合理化 (Rationalization) 技术的发展现状和存在的问题,提出了一种新的可解释人工智能技术领域 Rational AI (RAI) 并讨论未来的研究方向和挑战。
Jan, 2023
本文提出了一种新的基于 Shapley 值范例的机器学习公平解释方法,并提出了一种元算法来应用现有的训练时公平干预。
Oct, 2020
研究复杂推理任务的机器学习模型的问责和透明度方法,通过暴露潜在漏洞和解释模型推理过程来提高利益相关者的信任度和发现模型决策中的错误和不公平性。
Nov, 2022
本文提出了一种名为 LORE 的黑匣子探明方法,能够从逻辑和反事实规则两个层面解释黑匣子机器学习模型的决策原因,从而提高其在社会敏感和安全关键环境中的可用性和透明度。
May, 2018
通过一项关于程序生成解释的实证研究,我们发现不同类型的解释如何影响人们对机器学习系统的公平判断,其中某些解释可增强人们对算法公正性的信心,但也有部分解释会被认为是不公平的,此外,不同类型的解释也能更有效地揭示不同的公平问题,因此我们讨论了提供个性化和自适应的解释来支持机器学习系统的公平判断。
Jan, 2019
本文介绍了 FairLay-ML,一种结合了已有研究工具的图形用户界面,能够提供机器学习模型中不公平逻辑的直观解释,具有易于安装、提供实时黑盒解释和可执行的解决方案等特点。
Jul, 2023