一个人机交互框架构建情境感知数学公平概念
该研究调查用户对算法决策公平性的看法,并提出了一个框架来了解人们如何认识和判断决策算法的公平性。他们通过与 576 人的一系列情境调查,验证了这一框架,并发现人们关注的不公平问题是多方面的。在高层次上,该研究显示人们的不公平关注是多维度的,未来的研究需解决超出歧视范围的不公平关注问题;在低层次上,研究表明人们在公平判断上存在着相当的分歧,但同时也提出了解决这些分歧的可能途径。
Feb, 2018
本研究针对自动决策系统公平性评估中常被忽略的风险和福利考虑提出了一种基于福利的公平性度量方法,其凸形式允许我们将其作为任何凸损失优化流程的约束条件进行集成,并通过实证分析揭示了与预测准确性、群体歧视和个体公平性之间的有趣权衡关系。该方法是第一个能够限制个体不平等性的计算机可行机制。
Jun, 2018
机器学习算法应用于如信贷贷款或刑法司法等关乎人类生活方面的情境,其所基于的数据若含有人类偏见决策,则会产生人类偏见决策,拥有公平观念的机器学习是一种解决方案,但是如何实现公平面临着“多维面”等难题,要想在不同领域实现公平、公正,算法必须做到数据和开发者审查的透明化,在此基础上不断进行公平审计。
Jan, 2019
通过因果推断的主分层概念,引入了一个新的公平概念——基本公平,以人类和算法决策为例。其核心思想是不应该歧视那些对决定影响相似的个体。与现有的统计公平定义不同,基本公平明确考虑了个体可能受到决策影响的事实。
May, 2020
该论文探讨了自动化决策系统在人类决策中的作用和不足,旨在通过深入研究来理解决策主体对于基于自动化决策系统的透明度的决策的不同感受,确保决策的质量、公正以及人性化。
Apr, 2022
本论文针对算法决策中的公平性问题提供了跨学科的构想。其中,法律系统的差异是一个核心问题,同时论文提出了一种上下文方法来处理意外的群体歧视,研究算法决策的可解释性。
May, 2022
本文提出了一个因果公平性分析的框架,以理解、建模和可能解决决策设置中的公平问题。研究挑战是挖掘潜在的因果机制并将各种公平度量与结构机制和人口单位归因。最后,提出了一个公平的菜谱,以评估不公平对各个人群的影响。
Jul, 2022
社会决策中公平性是最值得追求的原则之一,它在过去几十年中得到了广泛研究,近年来也得到了多智能体系统社区的重视。然而,这些研究往往不能充分捕捉到现实世界问题的复杂性和人们对公平性的认知。我们认为,社会规划者(设计者)不仅应该认为公平解是可取的,而且应该以人类和社会认知为基础,考虑基于人类判断的感知结果,并且可以进行验证。为了实现这一目标,需要从计算和人工智能到行为经济学和人机交互等广泛跨学科的方法。在这样做的过程中,我们指出了当前公平分配文献的不足和长期挑战,描述了近期在解决这些问题方面的努力,并更重要地强调了一系列开放的研究方向。
Dec, 2023
机器学习和深度学习的最新进展使得算法公平成为一个关注焦点,引发对影响某些个体或群体的歧视性决策的担忧。本调研综述基于“容忍度”提出了一个新的分类系统,揭示了算法决策中公平的微妙性。通过分析多个行业,我们的系统性综述揭示了算法决策与社会公平之间的关键见解。通过综合这些见解,我们勾勒出一系列新兴挑战,并提出未来研究和政策制定的战略方向,以推动该领域朝着更加公平的算法系统发展。
Apr, 2024