公正与可解释性之间的相互作用
本文简要回顾自然语言处理领域中解释性和公平性的研究趋势,识别出目前通过解释性方法来检测和减轻偏见的实践,调查 XAI 方法在解决公平问题方面广泛应用的障碍。
Jun, 2022
本文探讨了机器学习中公平性、可解释性、人本主义、社会偏差等问题,并提出了一种以人为本的人工智能方法,以增强分类系统和单词嵌入的可解释性和公平性,通过 D-BIAS 等可视化工具识别和缓解社会偏见。
Jun, 2023
通过一项关于程序生成解释的实证研究,我们发现不同类型的解释如何影响人们对机器学习系统的公平判断,其中某些解释可增强人们对算法公正性的信心,但也有部分解释会被认为是不公平的,此外,不同类型的解释也能更有效地揭示不同的公平问题,因此我们讨论了提供个性化和自适应的解释来支持机器学习系统的公平判断。
Jan, 2019
我们提出了一种方法,将人类决策的解释性文本注释引入文本分类模型,从而提高模型解释的可信度,并通过多目标优化算法在性能和可信度之间达到平衡,从而显著提高模型解释的质量。
Apr, 2024
通过解释的方式,我们提出了基于过程的公正度并识别了过程相关偏见,并通过优化目标设计了一种综合公正度算法,以在提高传统公正度、满足解释公正度和维护实用性能之间达到多重目标的平衡。
Dec, 2022
研究人员探讨了 AI 系统推荐错误或不公平的情况下,人工干预的必要性,并提供了关于解释、公平感知、依赖和分布公平性之间关系的理论框架,但文献并没有提供确凿证据证明解释在实践中实现了这种补充关系。
Apr, 2022
算法公平性和可解释性是实现负责任人工智能的基本要素。本文关注它们之间的相互关系,即最近受到越来越多关注的研究领域。我们首先提出了两种综合分类法,分别代表了公平性和解释两个互补的研究领域。然后,我们将用于公平性的解释分为三种类型:(a)用于增强公平指标的解释,(b)用于帮助我们理解(不公平)原因的解释,以及(c)用于辅助我们设计缓解不公平性方法的解释。最后,基于我们的公平性和解释分类法,我们提供了未曾涉足的文献路径,揭示了可以作为未来研究宝贵见解的空白领域。
Feb, 2024
该研究论文提出,自然语言处理模型中的去偏置方法应当使用敏感信息来实现公平去偏置,而不是盲目地消除它,为了实现公平平衡,研究人员建议采用能够与用户互动并提供反馈的交互式方法,从而在任务表现和偏置缓解之间实现更好和公正的平衡,并支持详尽的解释。
Oct, 2022
本文通过在金融、医疗保健、大学招生和美国司法系统等四个领域的实际数据中审计了不同保护子组的解释质量,发现不同子组的近似质量显着不同,而解释深度学习模型的近似质量差异存在着公平性挑战,需要进一步解决。
May, 2022