- 政府发展和使用先进自动化系统对个人进行决策的建议
在政府决策中,有争议性是实施公正的关键;自动化决策和制度改善方面的讨论促进了这争议性的现代化。
- 跨领域知识转移的图启用方法
通过跨领域知识转移来减少领域知识不足的影响,结合半监督学习及大量无监督数据,提高机器学习任务的性能以实现自动决策
- 公平性与序贯决策:局限性、教训和机遇
本文比较和讨论了算法公平性和道德决策制定两个主要领域的研究成果,探讨了其规范关切、不同技术方案的可行性,并阐述了两种领域对对方有用的思想。
- 公平是什么?对公平机器学习的哲学思考及其含义
本文旨在通过形式化一致的公平概念,将哲学讨论转化为 ADM 系统中 ML 模型培训和评估的一种正式框架,并提出了一般算法,以实现 fairML 的更高语言清晰度和实际应用。
- Lean 和 Argumentative 解释下的可解释决策制定
论文探讨了如何针对目标导向决策与论证性解释构建透明度的自动决策框架,其中使用基于假设的论证建模确保了 “好” 的决策的合理性,进而为不同用户提供精简与论证两种形式的解释。
- FAE: 公平感知集成框架
基于自动化决策的大数据和机器学习算法可能导致对某些受保护群体的歧视性决策。既有的公平感知机器学习方法关注于输入数据,学习算法或派生模型的前处理,中断处理或后处理。本文提出的 FAE(公平感知集成)框架结合了数据分析过程中前处理和后处理步骤中 - 算法决策的主动公平性
本研究提出了一种基于主动框架的公平分类方法,通过根据不同群体或个体的需求自适应获取信息来平衡分类性能差异,证明了该方法可以显著优于基于随机化的分类器。
- NIPS无知之幕背后的公平性:自动决策的福利分析
本研究针对自动决策系统公平性评估中常被忽略的风险和福利考虑提出了一种基于福利的公平性度量方法,其凸形式允许我们将其作为任何凸损失优化流程的约束条件进行集成,并通过实证分析揭示了与预测准确性、群体歧视和个体公平性之间的有趣权衡关系。该方法是第 - 监督学习中的公正性:信息论方法
研究提出了一个信息理论框架来设计公平的预测器,以在监督学习环境中防止对指定敏感属性的歧视。使用平等的机会作为歧视标准,这要求在实际标签的条件下,预测应独立于受保护属性。同时确保公平和泛化,将数据压缩到辅助变量,再通过贝叶斯决策规则得到最终预 - NIPS从平等到基于偏好的分类公平概念
本研究探讨了在自动化数据驱动决策中存在的公平性问题,并基于账单分配和无嫉妒性理论,提出了一种基于偏好的公平性概念及采用可行的代理方法设计符合偏好公平性观念的分类器。 通过实验得出此偏好公平性相较于基于平等的公平性更加实用。
- 量子分类器的量子集合
本文介绍了量子分类器与集成学习的结合,提出了量子分类器集成框架,实现了对训练数据的分类,从而推出了量子及经典机器学习领域中的新结果。
- CP-nets: 表示和推理条件下等价偏好声明的工具
本文提出一种 qualitatively graphical representation,可反映 under ceteris paribus 条件下偏好陈述语的条件依赖和独立性,进而用于多种推理任务。