如何做到公正和多样化?
本文提出一个数学模型以创造具有代表性的数据来解决机器学习模型在非代表性数据集上产生的问题。我们将数据集创建问题形式化为一个约束优化问题,并提出了一种灵活的方法,它包含模型构建者和其他利益相关者的偏好,以及学习任务的统计特性。此外,我们证明,在一定条件下,即使没有关于学习率的先前知识,该优化问题也可以高效地求解。通过在合成基因组数据上进行的模拟研究,我们发现我们提出的自适应采样策略优于多种常用的数据收集启发式算法,包括等量和比例采样,并证明了通过策略数据集设计构建公平模型的价值。
Jan, 2022
这篇文章介绍了机器学习中的社会偏见和公平性问题,总结了预处理、处理和后处理等多种方法,包含二分类、回归、推荐系统、无监督学习和自然语言处理等多个方面,同时提供了多个开源库。最后,列举了公平性研究的四个难题。
Oct, 2020
本研究提出了一种基于多种伦理概念(如公平性、多样性和包容性)的度量方法,以解决子集选择问题,并给出了人类实验结果支持该方法。同时,社会选择方法可以用于聚合和选择首选集合。
Feb, 2020
讨论如何使用因果贝叶斯网络和最优输运理论来处理机器学习公平性问题,尤其是在复杂的不公平场景下,提出了一种统一的框架来处理不同的情况和公平标准,并介绍了一种学习公平表示的方法和一种考虑敏感属性使用限制的技术。
Dec, 2020
本文提倡将多样性作为核心优先事项,以实现算法公平所追求的不歧视和公正目标,并为计算机科学的从业人员提供具体的多样性措施建议,以增加多样性,并提高算法公平的实践水平。
Feb, 2020
在普遍采用机器学习的医疗领域,自动化的社会偏见可能会加剧健康差距,我们探索了从特征选择的角度来解决算法公平性。传统的特征选择方法忽视了不同子群体之间这些因素的差异,而我们的公平特征选择方法考虑了所有人口群体的平等重要性。我们在三个公开可用的医疗数据集上测试了我们的方法,在这三个数据集上,我们观察到在公平性度量指标上的改善,同时平衡准确率仅有轻微下降。我们的方法解决了公平机器学习背景下的分配和程序公正性问题。
Mar, 2024
调查表明,人工智能领域中存在各种偏见和不公,因此机器学习研究人员定义了公平性的分类,以解决现有 AI 系统中的偏见问题。此外,调查还考察了在 AI 的不同领域和子领域中,现有技术的问题及其应对措施,以期鼓励研究人员在其各自领域中研究此问题。
Aug, 2019