跨国边界评估人类感知的公平指标
本研究通过收集新的人员判断数据,尝试从人员标注数据中学习类似度度量,以实现个人公平性。研究结果表明,所学度量优于欧几里得度量和精度度量,并为学习诸如个人公平度量之类的度量提供了一种工具。
Oct, 2019
本研究提出了两种简单的方法,从多种数据类型中学习公平指标,经实验证明使用学习到的指标进行公平训练可以在三种机器学习任务中有效减少性别和种族偏见,同时也提供了关于统计性能的理论保证。
Jun, 2020
正义是公平的概念。在没有统一接受的公平概念的情况下,如何为特定应用程序选择最适当的公平度量标准是实现可持续公正的关键问题。为了提供更多实用指导,作者提出了 “公平度量罗盘”,这是一个工具,可以形式化选择过程,并简化选择特定系统的最适当的公平定义。同时还可以解释和证明所采取公平措施的理由。
Feb, 2021
社会决策中公平性是最值得追求的原则之一,它在过去几十年中得到了广泛研究,近年来也得到了多智能体系统社区的重视。然而,这些研究往往不能充分捕捉到现实世界问题的复杂性和人们对公平性的认知。我们认为,社会规划者(设计者)不仅应该认为公平解是可取的,而且应该以人类和社会认知为基础,考虑基于人类判断的感知结果,并且可以进行验证。为了实现这一目标,需要从计算和人工智能到行为经济学和人机交互等广泛跨学科的方法。在这样做的过程中,我们指出了当前公平分配文献的不足和长期挑战,描述了近期在解决这些问题方面的努力,并更重要地强调了一系列开放的研究方向。
Dec, 2023
本文提出不需要人工规范距离度量的个体公平性的实现方法。我们提出新的方法获取和利用关于同样值得的个人的附加信息来打破社会群体之间的剥夺,将这些知识建模为公平图,并学习数据的统一成对公平表示,捕捉个体间数据驱动的相似性和公平性图中成对附加信息。我们从各种来源获取公平判断,包括关于再犯率预测(COMPAS)和暴力社区预测(Crime&Communities)的两个真实数据集的人类判断。实验显示,对于实现个体公平,PFR 模型是实际可行的。
Jul, 2019
本文对 19 个语境化语言模型进行了广泛的相关性研究,并发现即使在校正度量不准确、评估数据集中有噪声以及实验配置方式等混淆因素的情况下,内在度量和外在度量不一定在其原始设置中相关。
Mar, 2022
提出了一种基于人类判断的 “个体公正” 近似度量的解决方案,该模型假定我们可以获得人类的公正裁决者,其可以回答关于特定任务的个体相似性的有限一组查询,该模型包括相关的度量逼近定义,逼近构造和学习程序。
Jun, 2019
该研究调查用户对算法决策公平性的看法,并提出了一个框架来了解人们如何认识和判断决策算法的公平性。他们通过与 576 人的一系列情境调查,验证了这一框架,并发现人们关注的不公平问题是多方面的。在高层次上,该研究显示人们的不公平关注是多维度的,未来的研究需解决超出歧视范围的不公平关注问题;在低层次上,研究表明人们在公平判断上存在着相当的分歧,但同时也提出了解决这些分歧的可能途径。
Feb, 2018
调查表明,对于预训练语言模型的公平度和偏见进行度量的大量指标之间的比较以及使用这些指标进行评估的工作仍然困难,如果不是完全不可能的。建议避免基于嵌入的指标,并专注于下游任务中的公平度评估,以提高未来的公平度比较和评估。
Dec, 2021