- 关于在公平分类和表示中的随机化的力量
在监督和无监督公平机器学习中,公平分类和公平表示学习是两个重要问题。本文研究了在这两个问题中,随机化方法可以最小化由于公平约束引起的准确性损失,并提出了公平分类和公平表示的随机化解决方案,可以获得最优准确性且不引起准确性损失。
- 关于公平表示学习的回归走向
通过重新关注性能在传输任务上的公平代表学习方法的评估协议,我们重新评估了现有的方法,并突出了对于公平代表学习方法来说,与任务无关的学习信号的重要性。
- 隐私与公平:信息混淆用于本地差分隐私的公平表示学习
通过引入信息瓶颈进行本地差分隐私的信息混淆方法,该研究旨在开发和分析一种理论框架,实现公平表示学习,并展示 LDP 随机化器在编码过程中提高公平性的能力。基于所提出的方法,我们进一步发展了一种同时实现 LDP 和公平性的变分表示编码方法,并 - 通过转换和增强不完美的训练数据实现鲁棒机器学习
机器学习的数据敏感性和数据不完整性的研究,包括公平表示学习、对不可靠功能进行学习的问题,以及强化学习中的数据不充分覆盖问题。
- 走向公平表达的毒性注入
公平机器学习,公平表征学习及数据污染攻击的研究。
- FARE: 可证明公平的表示学习
本研究提出一种新的公平性表示学习(FRL)方法 —— 受限编码公平性(FARE)方法,通过限制编码器的表示空间来获得适当的公平性保证,实现了经验准确度 - 公平性权衡,并且利用实用的统计程序计算了下游分类器不公平性的高置信度上界。
- 因果制约的解耦表示学习在反事实公平中的应用
本文研究了公平表示学习的问题,通过使用结构表示,可以实现反事实公平性,提出了 Counterfactual Fairness Variational AutoEncoder(CF-VAE)方法,得到了优于基准公平方法的公平性和精度表现。
- 使用不可靠标签的无偏公平性表征学习
该研究提出了一种名为 DBRF 的公正表示学习框架,通过信息理论概念(例如相互信息和信息瓶颈)解决了标签偏见的问题,旨在实现从不可靠标签中学习面向理想公正标签的公正表示。
- 隐式路径对齐实现公平的表示学习
通过双层优化和隐式路径对齐算法的应用,研究公平表征学习的角度,保证了最优预测器对于不同子组是不变的,并且证明了所提出的双层目标满足充分性规则,同时在分类和回归设置中得到了经验验证。
- 使用阻尼和堆叠的对抗生成的公平特征表示
研究利用减震和堆叠学习对抗性公正表征并在审查和重建方面改善了早期工作。
- 公平的变换流
本文提出了公平正则流 (FNF) 的方法来保证公平性,FNF 模型将敏感信息通过对编码器进行归一化流建模的方法来区分不同的群体,从而提供更严格的公平保障与最大不公平性的保障,并证明了其在各种具有挑战性的实际数据集上的有效性。
- 学习确证个体公平表示
该论文提出了一种基于潜在表示的证书方法,帮助数据消费者获得现有和新数据点的个体公平性证书,实现了公平性约束和效用之间的平衡,并通过实验评估了该方法在五个真实数据集和多个公平性约束方面的可扩展性和表现力。