- KDD具有一般化目标感知公平性的仇恨言论检测
为了解决社交媒体平台滥用的副作用,我们提出了一种名为 GetFair 的方法,该方法可以在分类中包含多样且未知的目标,以实现公平地识别含有有毒在线帖子的内容。
- 中性谬误:算法公平干预何时 (不) 是积极行动
算法公平性干预常被解释为防止歧视而非积极行动措施,调研结果提出在算法决策和公平干预中,应该从不造成伤害的消极义务转向积极‘不造成伤害’的责任。
- 以 Wasserstein 距离为指导的对抗性权重调整用于偏见缓解
通过对抗再加权方法来解决机器学习中的表征偏差,平衡数据分布以减少对少数群体的不公正对待,从而提高分类准确性和公平性。
- MM个体公平性的重新形式化
个体公平性的再形式化条件是个体的统计独立性,它与机器学习中的公平意识兼容,并能与公平概念(平等的几率、充分性)以及统计平衡相结合,适用于预处理、过程中和后处理公平预测的方法。
- ICLR监督学习的公平感知数据估值
FADO 是一个数据评估框架,旨在将公平性考虑到与机器学习相关的任务(如数据预处理、探索性数据分析、主动学习)中,采用基于熵的数据估值指标来最大化性能和公平性,可作为不公平性缓解预处理技术的基础,对于质量较好的数据具有重要意义。
- 面向公平感知的多目标优化
探讨了多目标优化的用户偏好以及与公平性在机器学习和多目标优化中的关系,介绍了公平性感知多目标优化的代表案例,并进一步阐述了公平在传统多目标优化、数据驱动优化和联邦优化中的重要性和挑战。
- ICML公平感知插件算法统计保证
插件算法可估计 Bayes Optimal 分类器,同时保证公平性和差分隐私。改进后的协议可同时保证这些要求。
- AAAI公平推荐:基于分解对抗学习的公平新闻推荐
本文提出了一种公平感知的新闻推荐方法,通过分解对抗性学习和正交正则化来缓解敏感用户属性带来的偏见,将用户兴趣模型分解为两个组件,用于学习偏差感知和偏差自由的用户嵌入,通过正交正则化来更好地区分偏差自由和偏差感知的用户嵌入,实证结果表明该方法 - 自适应梯度稀疏化用于高效联邦学习:一种在线学习方法
本文提出了一种公平性感知的梯度稀疏化方法,以及一种自适应梯度稀疏化技术,能够在控制梯度稀疏度的情况下,最小化整体训练时间,实验结果表明,相对于传统方法,通过本文所提方法,能够在有限的训练时间内提升 40% 的模型准确度。
- 多利益相关者推荐及其与多方公平性的关联
本文研究了多利益相关者推荐的公平性问题,定义了多利益相关者推荐系统的不同类别,并讨论了在此类系统中不同的公平性问题。
- MM公平且无偏的算法决策制定:现状与未来挑战
机器学习算法应用于如信贷贷款或刑法司法等关乎人类生活方面的情境,其所基于的数据若含有人类偏见决策,则会产生人类偏见决策,拥有公平观念的机器学习是一种解决方案,但是如何实现公平面临着 “多维面” 等难题,要想在不同领域实现公平、公正,算法必须 - 一个关注公平性的混合推荐系统
本研究提出使用基于概率编程语言的混合公平意识推荐系统,以多个用户 - 用户和物品 - 物品相似性度量、内容和人口统计信息实现高效准确的推荐,同时解决了推荐偏见问题。与最先进的公平推荐系统相比,实验结果表明,我们的模型可以提供更准确、更公平的 - Themis-ml:一种关注公平的机器学习接口,用于端到端的歧视发现和缓解
本文介绍了一种名为 themis-ml 的公平性感知机器学习接口,可以帮助数据科学家和工程师更好地理解和降低社会敏感数据中的隐式历史偏见。