- 数据质量对图像分类公平性的影响
本研究探讨了在监督式分类的情况下,训练数据的质量与通过这些数据训练的模型的整体公平性之间的关系,并测量了多个图像分类数据集上多个算法的关键公平度量,同时描绘和添加数据中的噪声以及对训练集数据进行标记的不准确性与标记噪声之间的关系。
- 关于语言模型中的相关性偏差和实证公平性的独立性
该论文研究了预先训练的语言模型的偏见和公平性之间的关系,提出了关联偏见和实证公平性的区别,并通过实证结果展示二者之间可能独立存在,最后指出现有的社会学和心理学文献支持这些度量是不相关的。
- 基于重新加权的类内鲁棒优化的群体公平正则化
提出一种融合分布式鲁棒优化(DRO)框架和公平度量的基于迭代优化算法的方法,称为 FairDRO,通过自动产生正确的重新加权为每个组来最小化该方法,实验结果显示我们的方法在准确性公平交换上,相对于近期的强基线方法在多项基准数据集上表现出具有 - ICML公平性评估中的不确定性:尽管波动仍能保持稳定的结论
文章提出了一个新的评估算法性能及公平性指标的贝叶斯框架 ——“不确定性事关框架”,可以用于稳定的偏见感知性能评估,并在 K 折交叉验证过程中进行了应用。实验结果表明,相比于经典的评估框架,该方法在信息和稳定性方面有更大的优势。
- 退休 $Δ$DP:用于人口统计学平等的新分布级别指标
该研究提出两种新的公平度量标准,ABPC 和 ABCC,用于精确量化分布级别的人口平等破坏。新的公平性指标直接衡量不同人口群体的预测概率分布之间的差异,并且在分类阈值调整时保证人口平等。
- 使用强化学习的无模型公平光伏电压约束方法
该研究使用强化学习探索如何公平减少居民用光伏系统过电压事件,以此在保证系统安全的同时实现公平分配,并以六项公平度量标准检验其优越性。
- 面部识别中性能和公平指标的评估 - Bootstrap 方法
本研究介绍了针对人脸识别中 ROC 曲线的统计版本与偏差问题,基于经验 ROC 分析,因相似度评分的 True/False Acceptance Rates 呈 U - 统计学形式,导致朴素的自助法方法不适用,需采用专门的重新校准技术,以此 - 查询偏差是否泄漏保护属性?通过平滑灵敏度实现隐私保护
研究表明,要确保模型开发人员无法通过查询公平度量来了解个体的受保护属性,提出了一个新技术 Attribute-Conceal 来实现差分隐私,避免了普通机制的局限性。
- 利用 von Mises-Fisher 混合模型缓解面部识别中的性别偏见
本文研究深度人脸识别网络中的性别偏见,并提出了两种新的度量方法 BFAR 和 BFRR 以评估性别偏见,同时通过浅层神经网络进行后处理,通过最小化公平的 von Mises-Fisher 损失来减少性别歧视。
- 关于架构和超参数对于面部识别公平性的重要性
通过对神经网络架构和超参数的搜索来减少面部识别系统中的性别和种族等社会民主维度偏差,最终得到了一系列同时具有准确性和公正性的 Pareto 最优模型,并提供代码和数据让研究人员和实践者使用。
- 英语边缘滥用模型在 Twitter 上对被边缘化群体过度惩罚的基于关键词的方法
本文通过设计一种新的方法来检测和衡量基于文本的模型所涉及的潜在危害的严重性,并将该方法应用于 Twitter 的英语边缘滥用模型,以检测和测量与过度惩罚边缘社区言论相关的问题,并通过增加附加真负面示例来减轻相关危害。
- 公平信貸評分的算法決策方法
本研究探讨了 12 种顶级的偏差缓解方法,讨论其性能,基于 5 种不同的公平度量标准、实现的准确性和金融机构的潜在利润。我们的研究结果表明,在保留准确性和利润的前提下实现公平存在困难,同时突出了一些最佳和最差的表现,并有助于实验机器学习和其 - 机器学习分类器偏见缓解方法的全面实证研究
该研究对机器学习分类器的 17 种生动代表性偏差缓解方法进行了综合性的实证研究,在 8 种广泛采用的软件决策任务中应用了 11 种 ML 性能度量(例如,准确性)、4 种公平度量以及 20 种公平 - 性能权衡评估。在分析过程中,作者发现, - 评估基于数据集到模型的人口统计偏差转移:以面部表情识别为例的案例研究
本研究提出了一种新的度量方法,用于评估多类多人口统计分类问题中面部表情识别中的代表性和刻板印象偏见以及训练模型的残余偏见。这些度量结合在一起,可以用于研究和比较不同的偏见缓解方法。在对 Affectnet 数据集进行分析后,我们发现其中存在 - 面向多方曝光的推荐公平性
研究推荐系统中的曝光公平性,提出了一种从消费者和生产者双方角度建模的公平度量,以缓解除了个体用户和物品的不公平之外的更系统性的偏见,进一步研究了曝光公平性维度之间的关系并演示了如何将随机排序策略优化为这些公平目标。
- 评估算法公正性的表型定义
本文介绍了一组评估表型定义公平性的最佳实践,通过受到常用的公平性度量的启发,并将其与常用的流行病学队列描述度量相关联。通过对两组受试者亚组进行的实证研究,我们描绘了 Crohn 病和 2 型糖尿病中多个表型定义的广泛差异和不一致性。希望这些 - 迈向负责任的人工智能开发生命周期:来自信息安全的启示
提出了一个框架,将信息安全领域和安全开发生命周期的概念应用到人工智能系统的开发中,以解决公正度、可解释性和科技伦理等方面的问题。
- 终极目标是否正当化手段?公平感知机器学习的道德正当化
论文讨论公正机器学习算法的义务,对比不同的公正度量标准及其在道德层面的合理性,分析 Hardt 等人提出的公正机器学习算法引起的道德问题。作者建议需要从综合角度评价公正机器学习算法的策略和效果。
- 差分隐私数据的后处理:公平性视角
本研究探讨了不同隐私保护机制中,后处理免疫性质的影响,并分析了在美国人口普查数据分配基金等重大社会决策中,后处理机制引起的不公平影响,提出了一种新的后处理机制,旨在减少公平问题和隐私保护成本。
- CVPR使用部分注释组标签学习公平分类器
本文针对标注人口统计学组注解成本高昂的现实场景,提出了一种可行的算法组公平性解决方案 (Fair-PG),采用置信度为基础的组标签分配 (CGL) 策略,通过与最新的算法公平性处理方法相结合,提高了目标准确性和公平度。