- 测量和减轻具有多个受保护属性的表格数据中的偏差
提出了新的歧视衡量方法,并介绍了一种新的偏见减轻方法,实验证明了这种策略可以减少多个保护属性的数据集中的歧视。
- KDD缓解人脸合成方法中的偏差的抽样策略
通过对 Flickr Faces HQ 数据集上训练的 StyleGAN2 生成模型进行分析,本文提出了两种采样策略来平衡生成的人脸图像中选择属性的表示,并揭示了针对非常年轻和非常年老年龄组以及女性面孔的随机采样图像分布中出现的偏差。通过在 - 懒散的数据处理方式对公正研究的危害
数据实践塑造了公平机器学习研究和实践。关键数据研究通过指出不足并提出改进建议,为该领域的负责前进提供了重要的反思和批评。本研究对公平机器学习数据集进行了全面分析,展示了不经思考的常见实践如何阻碍算法公平研究的覆盖率和可靠性。我们对表格数据集 - AAAI算法公平性的信息流视角
本文研究算法公平性与安全信息流之间的关系,提出了一个基于量化信息流和基于质化信息流的新的公平性概念 —— 公平传播。研究结果表明,信息流属性的现有工具可以用来形式化分析程序的算法公平性属性,包括公平传播和人口平衡等已建立的概念。
- SABAF: 基于对抗滤波消除神经网络中的强属性偏差
该研究旨在提升公平和有保证的人工智能发展中,确保神经网络不依赖受保护属性(例如种族、性别、年龄)进行预测。通过分析现有属性偏差去除方法的局限性,研究发现其在面对强偏差时存在局限,并提出了一种能够缓解这种局限的新方法,该方法在输入空间中使用对 - 神经网络消除属性特定偏差的信息理论界限
通过数学和实证研究,揭示了属性偏见消除方法在存在强偏见时的一个重要限制,并验证了这一理论界限在实践中的影响。发现现有的属性偏见消除方法仅在数据集中固有偏见相对较弱时有效,因此警告不要在较小的数据集中使用这些方法,同时主张需要克服这一局限性的 - 探究 ChatGPT 时代算法招聘偏见:Emilly、Greg 是否比 Lakisha、Jamal 更具就业能力?
大型语言模型在算法招聘中的使用引发了与受保护属性(如性别、种族和孕期状态)的偏见问题。本研究基于开源的大型语言模型,在匹配简历与职位类别以及总结简历的两个任务上评估性别、种族、孕期状态和政治倾向的偏见。结果显示大型语言模型在种族和性别方面具 - 公平典型相关分析
该论文研究了正则相关分析(CCA)中的公平性和偏见问题,并提出了一种框架,通过最小化与受保护属性相关的相关差异误差来减轻不公平现象。我们的方法使得 CCA 能够从所有数据点中学习全局投影矩阵,同时确保这些矩阵与特定群体的投影矩阵具有可比性。 - AAAI公平分类遇到含噪保护属性
在实现算法公平性方面存在多个实际挑战,包括数据集中受保护属性的可用性或可靠性。本研究首次对公平分类算法进行了头对头的研究,以比较基于属性、容忍噪声和盲目属性的算法在预测性和公平性两个方面的表现。我们通过对四个真实数据集和合成扰动的案例研究来 - 利用自然语言处理增强大学招生中的整体评估:基于论文和推荐信的分析
本研究采用机器学习模型对一个高选择性的美国大学的本科入学申请数据进行实证评估,发现排除保护属性会严重降低预测入学决策的性能,而通过文本信息的加入能够部分恢复模型性能,但未能完全取代通过保护属性构建的多样性类。
- 利用成对分布差异的亲和力聚类框架进行数据去偏差
本文提出一种利用亲和力聚类进行数据增强的方法(MASC),以平衡目标数据集中受保护群体和非受保护群体的比例和代表性,通过共享受保护属性的相似数据集的实例并使用非参数谱聚类进行优化数据集分类。实验结果显示该方法可以有效地消除数据偏见。
- ImageCaptioner$^2$: 图像自动描述模型用于评估自序偏差放大
本文提出了一种新的评估图像字幕偏见的量化评估度量 ImageCaptioner2,通过对生成的字幕进行基于提示的图像字幕评估,以评估基于图像的字幕算法的偏见,通过在 MS-COCO 字幕数据集,Artemis V1 和 Artemis V2 - 提升基于 AI 的出行需求预测模型的公平性
提出一种新的方法来解决基于人工智能的交通出行需求预测中存在的公平性问题,通过在交通出行需求预测模型的损失函数中添加公平性正则项,以相应受保护属性(如种族、收入等)与预测准确度之间的相关性作为衡量指标,来同时考虑预测准确度和公平性。在芝加哥的 - 神经表示中未对齐属性的擦除
本文介绍了 AMSAL 算法和它在多个数据集上的测试,其中包括一个 Twitter 数据集和带有各种类型的保护属性的 BiasBench 基准测试。该算法旨在在信息需要被删除,但不是直接与输入示例对齐的情况下,从神经表示中删除信息。
- 查询偏差是否泄漏保护属性?通过平滑灵敏度实现隐私保护
研究表明,要确保模型开发人员无法通过查询公平度量来了解个体的受保护属性,提出了一个新技术 Attribute-Conceal 来实现差分隐私,避免了普通机制的局限性。
- KDD评估学生绩点预测问题中的群体公平性措施
本文对教育数据挖掘中不同组公平措施和学生表现预测模型进行比较,发现公平措施和成绩阈值的选择对模型的预测效果具有重要影响。
- ECCV通过去偏替换网络来识别和减轻未知偏差
提出了 DebiAN 方法来识别和减少深度图像分类器从数据集中学习到的偏见,该方法包括两个网络,一个 Discoverer 和一个 Classifier,旨在在没有任何偏见注释的情况下找到分类器的多个未知偏见。在现实世界的数据集上,Debi - EMNLP评估化解交叉偏见技术
这篇论文探讨了在自然语言处理模型中的偏差对模型的影响,提出了针对多个保护属性进行评估的自动去偏差技术,并研究了一个新的有偏约束模型及其扩展版本的迭代零空间投影技术。
- 平衡偏差:通过平衡训练实现公平
该研究旨在解决自然语言处理中与作者人口统计信息相关的系统偏差问题,提出了一种基于数据集平衡和带保护属性的门控模型来实现公正性,证明了该方法在减少偏差方面优于其他技术。
- WWW不完整判断情况下公平排名度量方法估算
为应对个人受保护属性标签稀缺的大规模系统,本研究提出了采样策略和评估技术以对四种公平排名度量进行测量,并形成一个强大而无偏的估算器。实验结果证明了该方法的可行性和可靠性。