使用印象方差感知强化学习实现个性化广告公平
提出了通过限制种群信息的编码来缓解变分自编码器为基础的推荐系统中的歧视问题的新方法,并对这些方法进行了评估,可以为未在训练数据中表示的用户提供公平的推荐。
Aug, 2023
通过引入 Variance Reduction 和 Semi-Variance Reduction 两个新的公平联邦学习算法,研究了确保联邦学习系统中的公平性是一个重要且具有挑战性的问题。这些算法通过惩罚不同客户之间的损失函数方差或者平均值与最差情况之间的差异,提高了公平性,并且在不同数据分布的情况下取得了先进技术,并提高了整体系统的平均性能。
Jun, 2024
本文提出了一种基于 Visual Psychophysics Sensitivity Analysis 扩展的新型公平性评估框架,该框架可分析模型在不同被干扰亚组群中表现得是否公平,并通过 AUC 矩阵来紧凑可视化模型的公平性分析。作者分析了常见人脸识别模型的表现,实证发现当图像受到扰动时,某些亚组群处于不利地位,揭示了在无干扰的子群体上模型表现不明显的趋势。
Feb, 2022
本文提出了一种新的变分方法来学习私有和 / 或公平的表示,该方法基于一个新的隐私和公平优化问题的拉格朗日形式,并展示了保持所需信息水平的数据表示,并在最小化保留信息的同时控制效用与隐私或公平平衡的相似之处和可行性。该方法可舒适地纳入常见的表示学习算法,如 VAE、β-VAE、VIB 或非线性 IB 等。
Jun, 2020
大多数实际应用中的数据收集通常包含缺失值,这些缺失值通常是非随机缺失,从而降低了模型的预测性能。本文首先从理论上揭示了正则化技术的局限性,并进一步说明,对于更一般的估计器,无偏性必然导致方差无界。然后,我们开发了一种系统的精细动态学习框架,通过预定义的目标函数为每个用户 - 项对自适应选择适当的估计器,从而联合优化偏差和方差。通过这种操作,模型的泛化界限和方差减少并且有理论保证。通过大量实验证实了理论结果和所提出的动态学习框架的有效性。
May, 2024
本文讨论了估计器误差分解中的偏差项、方差项和不可避免噪声项, 研究了社会特权和社会劣势群体的公平性问题,并提出了一种基于组间方差的性能度量方法。同时,研发了一个开源库,将不确定性量化技术与公平性分析融合,并在标准基准测试上对基于方差的公平性度量方法进行了全面的实证分析。
Feb, 2023
本文介绍了一种关于在公平分类中使用集成算法,解决分类结果不稳定导致任意性和观点关于公平性的不可靠等问题。实验结果表明,我们的方法可以显著降低子组误差率差异,无需使用常见的公平性干预措施。
Jan, 2023
通过允许模型在性能近乎相等的群体上产生微小概率差距的方法,基于条件风险价值 (CVaR) 提出了一种检测性能差异的方法;同时证明了具有特定先验分布权重的情况下,Rényi 熵阶数为 2/3 的先验分布可以捕获所提出的 CVaR 测试算法的样本复杂性。
Dec, 2023