隐私保护算法方案
本研究采用机器学习模型,在负面结果的情况下提供算法补救措施,并通过两种新颖方法生成差分隐私补救措施:差分隐私模型(DPM)和拉普拉斯补救措施(LR)。使用逻辑回归分类器和真实数据集以及合成数据集,发现 DPM 和 LR 在降低对手推断信息方面表现良好,特别是在低假正率的情况下。当训练数据集足够大时,通过我们的新颖 LR 方法,成功地防止了隐私泄露,同时保持模型和补救措施的准确性。
Aug, 2023
通过算法补偿实施的反事实推演已成为使人工智能系统具有可解释性的强大工具,本文提出了一种名为 LocalFACE 的模型不可知技术,通过局部获取的信息在每个算法补偿步骤中构建可行且可操作的反事实解释。
Sep, 2023
我们提出了一种基于机器学习的回溯算法,用于提供决策结果不理想的人可以采取的可操作的一系列改变,以改善他们的结果。我们的算法可适用于各个不同 iable 的基于机器学习的决策系统,并填补了关于公平性的现有文献的不足之处。
Jul, 2019
算法回溯是提升机器学习模型解释性、透明性和伦理性的一种突出技术;现有的算法回溯方法通常假设预测模型是不变的,但预测模型往往会在新数据到达时进行更新,因此对于未来的模型而言,对现有模型有效的回溯方法可能变得无效。为解决这个问题,我们提出了一个新框架生成与模型变化鲁棒的模型无关回溯。我们的框架首先构建了一个基于线性 (代理) 模型的可覆盖性和有效性感知回溯,然后根据这个线性模型生成回溯。我们建立了我们的可覆盖性和有效性感知线性模型与极小最大概率机 (MPM) 之间的理论联系,并证明通过给定不同的协方差鲁棒性,我们的框架可以恢复 MPM 的常用正则化,包括ℓ2 正则化和类别重新加权。此外,我们还展示了我们的代理模型直观地推动近似超平面,使得回溯既具有鲁棒性又具有可解释性。数值结果证明了我们框架的有用性和鲁棒性。
Nov, 2023
本研究提出了一种新的范式,通过引入首个基于人类偏好征集的人在环路方法,将用户视为过程的主动参与者,结合蒙特卡洛树搜索的强化学习智能体以提供个性化干预以实现算法回溯。
May, 2022
在高风险情况下,通过对敌对示例和反事实解释的形式定义,我们介绍了非敌对算法性回应,并阐明了为什么在获得不具备敌对特性的反事实解释方面是至关重要的。我们进一步研究了目标函数中不同组件(例如用于计量距离的机器学习模型或成本函数)如何决定结果是否可以被视为敌对示例。我们对常见数据集进行的实验证明,这些设计选择通常比使用回应或攻击算法更关键,以决定回应是否具有非敌对特性。此外,我们展示了选择强大和准确的机器学习模型会导致实践中所期望的更少敌对性回应。
Mar, 2024