公平机器学习的可解释性
通过解释的方式,我们提出了基于过程的公正度并识别了过程相关偏见,并通过优化目标设计了一种综合公正度算法,以在提高传统公正度、满足解释公正度和维护实用性能之间达到多重目标的平衡。
Dec, 2022
本文通过在金融、医疗保健、大学招生和美国司法系统等四个领域的实际数据中审计了不同保护子组的解释质量,发现不同子组的近似质量显着不同,而解释深度学习模型的近似质量差异存在着公平性挑战,需要进一步解决。
May, 2022
通过一项关于程序生成解释的实证研究,我们发现不同类型的解释如何影响人们对机器学习系统的公平判断,其中某些解释可增强人们对算法公正性的信心,但也有部分解释会被认为是不公平的,此外,不同类型的解释也能更有效地揭示不同的公平问题,因此我们讨论了提供个性化和自适应的解释来支持机器学习系统的公平判断。
Jan, 2019
算法公平性和可解释性是实现负责任人工智能的基本要素。本文关注它们之间的相互关系,即最近受到越来越多关注的研究领域。我们首先提出了两种综合分类法,分别代表了公平性和解释两个互补的研究领域。然后,我们将用于公平性的解释分为三种类型:(a)用于增强公平指标的解释,(b)用于帮助我们理解(不公平)原因的解释,以及(c)用于辅助我们设计缓解不公平性方法的解释。最后,基于我们的公平性和解释分类法,我们提供了未曾涉足的文献路径,揭示了可以作为未来研究宝贵见解的空白领域。
Feb, 2024
该研究基于可解释的 AI 技术,提出了一个计数事实可解释公平框架(CEF)来解决推荐系统中存在的公平性缺陷问题。该模型能够生成关于模型公平性的解释,以提供有关即使做出相关更改也不会显著损害其性能的公平性分数排名的信息。
Apr, 2022
面向可解释人工智能(XAI)的高速范式转变已在近年来出现。高度复杂的机器学习(ML)模型在许多智能任务中蓬勃发展,而问题开始从传统的有效性度量转向更深层次的问题:该模型告诉我关于我的数据什么,它是如何得出这些结论的?XAI 和建模技术之间的不一致可能对这些解释性方法的效力产生质疑。为了解决这些问题,我们提出了一种针对流行的 XAI 的模型不可知方法 SHapley Additive exPlanations(Shap)进行系统的扰动分析。我们设计了一些算法,在动态推理的设置下生成相对特征重要性,这些设置针对一套流行的机器学习和深度学习方法,以及允许我们量化静态情况下生成解释的质量的度量指标。我们提出了特征重要性方法论的分类体系,度量了一致性,并观察了几个数据集中解释模型之间的可量化相似性。
May, 2024
建立可靠且值得信赖的自然语言处理应用程序,模型需要在不同人群之间既公平又可解释。本研究通过两个文本分类数据集进行实验证明,公平和可解释性并不总是相互影响的,因此需要同时考虑这两个目标,以获得更好的结果。
Oct, 2023
本文探讨了机器学习中公平性、可解释性、人本主义、社会偏差等问题,并提出了一种以人为本的人工智能方法,以增强分类系统和单词嵌入的可解释性和公平性,通过 D-BIAS 等可视化工具识别和缓解社会偏见。
Jun, 2023
本文介绍了 FairLay-ML,一种结合了已有研究工具的图形用户界面,能够提供机器学习模型中不公平逻辑的直观解释,具有易于安装、提供实时黑盒解释和可执行的解决方案等特点。
Jul, 2023