本文介绍了一种使用因果干预公平性范例,通过在数据管理的集成组件中考虑公平性来识别特征以提高预测质量而不添加偏差的方法,提出了一种使用条件独立性检测的方法来确定确保干预公平的特征子集,并通过现实世界的数据集进行了详细的实证评估,证明了方法的有效性和效率。
Jun, 2020
本文强调通过因果关系的发现步骤,适当地使用因果关系来解决公平性问题的重要性,并且通过使用合成和标准公平性基准数据集的实证分析来证实了即使微小的因果模型差异也可能对公平性 / 歧视的结论产生重大影响。
Jun, 2022
该研究提出了一种系统性地识别模型中引起偏见的所有特征的方法,以帮助领域专家在决策过程中提供支持。通过评估四个知名数据集,展示了我们的贡献如何在开发、测试、维护和部署公平 / 公正的机器学习系统时推动标准程序。
Oct, 2023
在普遍采用机器学习的医疗领域,自动化的社会偏见可能会加剧健康差距,我们探索了从特征选择的角度来解决算法公平性。传统的特征选择方法忽视了不同子群体之间这些因素的差异,而我们的公平特征选择方法考虑了所有人口群体的平等重要性。我们在三个公开可用的医疗数据集上测试了我们的方法,在这三个数据集上,我们观察到在公平性度量指标上的改善,同时平衡准确率仅有轻微下降。我们的方法解决了公平机器学习背景下的分配和程序公正性问题。
Mar, 2024
本研究考虑了在有因果关系的影响下,监督机器学习和深度学习算法能否在解释性和预测性之间实现平衡,并表明这种平衡可以通过紫珀(Pearl)的后门调整准则来实现。使用这种方法,不仅可以获得准确的预测,同时也可以大大提高模型的解释性和迁移性。
Jun, 2023
本研究关注人工智能技术的社会责任问题,针对此问题提出一种名为因果学习的方法,旨在提高人工智能技术的社会责任感,并通过对其 7 种工具的调查,探讨这种方法在解决公平性等领域中的应用前景。
Apr, 2021
在当前人工智能时代,本研究讨论了负责任的机器学习数据集的重要性,并提出了一个评估数据集的负责任框架。通过公平性、隐私保护和合规性等方面的考虑,我们分析了超过 100 个数据集,发现没有一个数据集能免于公平性、隐私保护和合规性问题。我们对数据集的文档化提供了改进建议,并认为在全球范围内的数据保护法规定下,科学界的数据集创建方法需要修订。
本文概述了因果分析的基本背景和关键概念,总结了最近的可解释机器学习的因果方法,讨论了评估方法质量和因果可解释性中的开放问题。
我们提出了一种新颖的方法,结合了特征选择和因果发现,专注于时间序列,通过使用前向和后向特征选择程序,并利用传递熵来估计从特征到目标的因果信息流,实现了特征的选择不仅仅基于模型性能,还捕捉到因果信息流。
机器学习的可信度是一个重要的话题,涉及到鲁棒性、安全性、可解释性和公平性等各种应用和研究领域。本文系统地从数据中心的角度回顾了这些进展,突出了传统经验风险最小化(ERM)训练处理数据挑战的不足之处,提供了一种统一的语言和数学词汇将这些方法连接起来,促进对该领域的更加协调的理解,并讨论了由因果性文献明确启发的方法。同时,还对大型预训练模型的可信度展开了探讨,并将其与标准 ERM 进行联系,为未来方法铺平道路。最后,对这些方法的应用和未来潜在方面进行了简要总结和讨论。
Jul, 2023