- 性别偏见 - VL:通过反事实探测在视觉语言模型中进行性别偏见基准测试
这篇论文介绍了 GenderBias-VL 基准测试,通过使用反事实视觉问题评估 LVLMs 中与职业相关的性别偏见,以个体公平标准为基准。该基准测试包含 34,581 个视觉问题反事实对,涵盖了 177 个职业,发现现有的 LVLMs 普 - 通过指数倾斜实现高效个体公平的 k-means
这篇论文提出了一种名为倾斜 k-means(TKM)的新算法,以实现聚类的个体公平性。通过将指数倾斜集成到平方误差和(SSE)中,形成了一种新的目标函数 —— 倾斜 SSE。基于协作下降和一阶梯度法进行优化,证明了 TKM 的收敛性。在公平 - ACL谁的偏好?公平偏好的差异及其对利用人类反馈的人工智能公平性的影响
通过从人类反馈中学习,我们考虑在内容审查中公平性的设置,在比较两个评论时,人类反馈被用来确定如何处理涉及不同敏感属性组的评论。我们发现,与注释者的种族、年龄、政治立场、教育水平和 LGBTQ + 身份有关,公平偏好存在显著差异,并且文本中提 - 走向临床 AI 公平性:填补谜题中的空白
医学领域中人工智能(AI)的道德整合需要解决公平性这个高度依赖上下文的概念。本文通过详细的证据缺口分析,系统地指出了医疗数据和 AI 公平解决方案中存在的一些缺陷。我们强调了在许多医学领域中 AI 公平研究的稀缺性。此外,我们分析还凸显了对 - 模拟全客户参与:联邦学习的长期客户选择策略
通过最小化客户子集与完整客户集之间的梯度空间估计误差,我们提出了一种旨在模拟完整客户参与下性能的新型客户选择策略,并引入了一种新颖的个体公平约束,以确保具有类似数据分布的客户具有类似的被选择频率,从长期的角度指导客户选择过程。我们利用 Ly - 通过重加权和调整实现个体公平性
通过在德国信贷批准数据集上的实验证明,将图拉普拉斯正则化程序用于算法公平性技术可以提高个人公平性并降低偏差,同时揭示了 Prediction Consistency 评分可能会误导的问题。
- 缩小公平鸿沟:在图神经网络中实现群体和个体公平
在图学习的背景下,我们提出了一个名为 Fairness for Group and Individual (FairGI) 的新概念,该概念考虑了组公平性和组内个体公平性,并通过个体之间的相似度矩阵实现了组内个体公平性,同时利用对抗学习来解 - 单调个体公平性
在线学习与个体公平性问题的方法,考虑了能够聚合任意数量审核员反馈的审核方案,并提出了两个算法分别用于降低后悔度和公平违规数量,在计算效率方面也做出了显著改进。
- GRAPHGINI:在图神经网络中促进个体和群体的公平性
我们提出了 GRAPHGINI 方法,通过 GNN 框架中可学习的注意分数来实现个体公平,并通过基于启发式的最大纳什社会福利约束保证最大可能的群体公平,该方法在实验中显示出在维持效用和群体平等的情况下,在个体公平方面相比其他最先进的方法有显 - 关于输出扰动对二元线性分类中公平性的影响
我们在二元线性分类中理论上研究了差分隐私如何与个体公平性和群体公平性相互作用。具体来说,我们关注输出扰动机制,这是一种隐私保护机器学习的经典方法。我们导出了对扰动模型相对于原始模型可以实现的个体和群体公平性水平的高概率界限。因此,对于个体公 - 关于群体公平和个体公平之间的 (不) 兼容性
我们研究了最优统计公平性解决方案与个别公平性之间的兼容性,并分析了它们之间的冲突以及潜在解决方案。通过放宽前者到 Pareto 边界,我们确定了满足个体公平性要求的 Pareto 边界区域,从而使统计公平的 Pareto 最优性与个体公平性 - 分布式个体公平性认证
神经网络的分布个体公平性的高效认证界限是可扩展、实用和可靠的算法公平性保证来源。
- 因果公平度量:连接因果性、个体公平性和对抗鲁棒性
通过引入基于因果结构的因果公平度量、保护性因果干扰以及度量学习的方法,本研究解决了机器学习模型漏洞暴露、公平性和度量估计等实际问题。
- 聚类中的比例公平性:社会选择视角
我们研究了陈等人的比例聚类问题,并将其与计算社会选择中的多胜者投票领域相关联。我们展示了任何满足 Brill 和 Peters 的弱比例概念的聚类同时获得陈等人比例公平概念、个体公平和 “核心” 的最佳已知拟合度。事实上,我们证明了任何对比 - MM个体公平性的重新形式化
个体公平性的再形式化条件是个体的统计独立性,它与机器学习中的公平意识兼容,并能与公平概念(平等的几率、充分性)以及统计平衡相结合,适用于预处理、过程中和后处理公平预测的方法。
- RobustFair: 公平困惑导向的对抗评估梯度搜索
提出了一种使用 “fairness confusion” 概念的方法来平衡准确性和个体公平性之间的关系,使用由 “fairness confusion directed gradient search” 制作的敌对扰动的方法来改善深层神经网 - 贝叶斯神经网络中的个体公平性
研究了贝叶斯神经网络的个体公平性,提出基于梯度攻击的全局公平性方法,证明了近似伯努利推断训练的贝叶斯神经网络比确定性模型更具有个体公平性。
- 均等的几率并不等于个别的几率:针对群体和个人公平的后处理
通过构建受其 Lipschitz 约束的群体阈值之间的连续概率函数,来实现组公平和个体公平,同时保留了模型的预测能力和鲁棒性,解决了使用不连续的概率函数进行校准时组和个体公平冲突的问题,同时避免了个人的赔率失衡问题。
- 学习中的个体公平性保证与审查
研究机器学习算法如何实现公平性是机器学习中一个重要的领域。为了在构建机器学习系统时考虑公平性,这篇文章提出了一种新的公平性模型,即在具有审查制度的情况下进行个体公平性学习,探索了缺乏类标签前提条件的情况下如何对待相似的个体并减少歧视。本文在 - 神经网络的公平性验证
本文提出了 Fairify 方法,使用 SMT 来验证神经网络中的个体公平性,通过输入分割和剪枝以证明或反驳公平性认证,并在 25 个实际神经网络上进行了评估。