在交互式人机协同 AI 公平性中促进最终用户的参与
本研究提供了一种设计空间方法,通过人机交互设计支持数据科学家和领域专家对 AI 公平性进行调查,我们使用贷款申请作为实例,通过一系列研讨会,我们将贷款专员和数据科学家的需求实现到了 FairHIL 用户接口中。该研究通过 think-aloud 用户研究验证了 FairHIL 的可靠性,并为调查 AI 模型公平性提供更好的设计。
Jun, 2022
本文探讨了机器学习中公平性、可解释性、人本主义、社会偏差等问题,并提出了一种以人为本的人工智能方法,以增强分类系统和单词嵌入的可解释性和公平性,通过 D-BIAS 等可视化工具识别和缓解社会偏见。
Jun, 2023
人工智能的公平性在高风险决策中越来越引起关注,让利益相关者,尤其是普通用户,参与公平的人工智能开发具有潜力但往往被忽视。最近的努力探索了让普通用户提供与公平性相关的反馈的方法,但对如何将用户的反馈整合到人工智能模型中以及这样做的影响尚不了解。为了填补这一差距,我们从 58 个普通用户收集了关于一个在 Home Credit 数据集上训练的 XGBoost 模型公平性的反馈,并进行了离线实验,以研究重新训练模型对准确性、个体和团体公平性的影响。我们的工作为在 XGBoost 中整合用户公平反馈提供了基准结果,并提供了一个数据集和代码框架,以推动参与利益相关者研究人工智能公平性的起步工作。我们的讨论突出了在人工智能公平性中使用用户反馈面临的挑战,并指出了交互式机器学习的未来应用领域的方向。
Dec, 2023
通过一项关于程序生成解释的实证研究,我们发现不同类型的解释如何影响人们对机器学习系统的公平判断,其中某些解释可增强人们对算法公正性的信心,但也有部分解释会被认为是不公平的,此外,不同类型的解释也能更有效地揭示不同的公平问题,因此我们讨论了提供个性化和自适应的解释来支持机器学习系统的公平判断。
Jan, 2019
提出了一种名为 'FairCompass' 的人在循环中的公平审计方法,通过混合可视化分析系统将子组发现技术和基于决策树的模式集成到终端用户中,以促进可视分析的知识生成模型的使用,在实际情境中评估了 FairCompass 的公平审计效果,结果显示该系统在实际应用上具有潜力,望能填补公平性研究中的现行空白并促进在机器学习系统中的公平性操作实施。
Dec, 2023
人工智能系统的广泛应用越来越突显算法公正性问题,特别是在高风险情景下。因此,对如何改善人工智能系统的公正性以及可采取的措施进行关键考虑已迫在眉睫。许多研究人员和政策制定者认为可解释的人工智能是提高人工智能系统公正性的一种有希望的方法。然而,可解释的人工智能方法和公正性概念各不相同,它们表达不同的期望,而且可解释的人工智能与公正性之间的确切联系仍然模糊不清。此外,在人工智能系统的整个生命周期中,可能适用不同的措施来增加算法的公正性。然而,目前还没有一种连贯的方法将公正性期望与人工智能生命周期相对应。本文旨在填补这两个空白:我们概括得出了八个公正性期望,将它们与人工智能生命周期相联系,并讨论可解释的人工智能如何帮助解决每个期望。我们希望为实际应用提供方向,并激励特别关注这些公正性期望的可解释的人工智能研究。
Apr, 2024
研究了基于 AI 解释和分布式公平性之间的关系,发现解释会影响公平感知,从而与人类对 AI 建议的依赖关系发生关联。该研究表明,基于特征的解释并不是改善分布式公正性的可靠机制。
Sep, 2022
通过系统文献综述和定性内容分析,我们对可解释性人工智能(XAI)与公平之间的关系进行了深入调查,发现了公平福利的七个典型主张,并提出了对这些主张的重要注意事项。尽管文献经常暗示 XAI 是实现几个公平愿望的一种手段,但我们注意到这些愿望与 XAI 的能力之间存在不匹配,我们鼓励将 XAI 视为解决算法公平这个多维度社会技术挑战的工具之一,并具体说明哪种 XAI 方法如何使谁能够解决哪种公平愿望。
Oct, 2023
本研究介绍了四个新的可解释人工智能技术问题,这些问题围绕设计和评估算法,并呼吁建立基于人类需求的可解释人工智能技术开发研究范式,以保证人工智能在关键任务中的负责任使用。
Aug, 2022
本文利用因果推断和解释性机器学习的最新进展,提出了一种算法无关的框架 (MIIF),用于测量、解释和改进算法决策的公平性。我们使用随机实验来测量算法偏差,从而能够同时测量不同对待、不同影响和经济价值。此外,利用现代解释性技术,我们开发了一个可解释的机器学习模型,准确解释和提炼黑盒算法的信念。总的来说,这些技术为研究算法公平性创造了一个简单而强大的工具集,特别适用于理解实际应用中公平性成本的电子商务和目标广告等领域,其中行业的 A/B 测试已经非常丰富。
Sep, 2023