通过非披露代理实现平衡过滤
本文研究在没有标记受保护组的数据集的情况下,通过改善代理组的公平度量来提高真实敏感组的公平度,并在基准和实际数据集上进行了实验。 然而,该策略的有效性可能取决于公平度量的选择以及代理组在约束模型参数方面与真实受保护组的对齐程度。
Jun, 2018
通过提出的无监督代理敏感属性标签生成技术来解决在机器学习系统中的偏见问题,该方法包括无监督嵌入生成和聚类两个阶段,其有效性依赖于偏见通过与敏感属性相关的非敏感属性传播,并在高维潜在空间中映射为不同人口群体的聚类。实验结果表明,使用现有算法进行偏见缓解可以得到与真实敏感属性相比可比较的结果。
Dec, 2023
本研究提出了一种名为 Informative Sample-Aware Proxy(Proxy-ISA)的基于代理(proxy)的深度度量学习方法,该方法使用一种定时的阈值函数直接修改每个样本的梯度权重因子,使模型更加敏感于信息样本,进而取得更优的检索精度表现。
Nov, 2022
研究如何在收集敏感属性信息受到禁止或限制的情况下,通过差分隐私算法实现公平学习,并提出两种算法来设计实现,同时保证了差分隐私和均等几率性,讨论这三个性质间的权衡关系。
Dec, 2018
该论文提出 Antigone 框架,通过使用基于偏见分类器所产生的伪敏感属性标签来训练公平分类器,无需使用敏感属性标签,通过同时最大化准确性和公平性来实现平等机器学习。
Feb, 2023
我们设计了一种单一的群体盲扫描映射,它使源数据中两个群体的特征分布对齐,从而实现了(人口)群体平等,而不需要在映射的计算和使用过程中提供个体样本的受保护属性的值,也不依赖受保护属性的可访问性或估计。
Oct, 2023
本文研究了评估算法决策的不平等影响面临的根本性挑战:保护类成员在数据中通常不可观察。研究者考虑使用附加数据集来构建模型,从而预测代理变量(如姓氏和地理位置)来确定受保护类别的成员身份,提供了计算和可视化这些集合的算法和统计工具。通过借助美国人口普查数据和两个真实案例(抵押贷款和个性化药物剂量),展示了这种方法可以实现可靠和稳健的不平等影响评估。
Jun, 2019