本文旨在探讨对算法提供诉求时对于隐私泄露的重要风险,通过 membership inference attacks 方法将对算法使用的数据的私密信息泄露。
Nov, 2022
提出了一种新的框架 ROAR(RObust Algorithmic Recourse)用于解决由于模型漂移导致现有的后事补救技术不再有效的问题,该框架利用对抗性训练找到了对模型漂移具有鲁棒性的后事补救,实验评估结果表明这种方法在多个合成和现实世界数据集上具有很高的效度。
Feb, 2021
在高风险决策中,算法系统往往被要求提供帮助。鉴于此,算法追索的原则,即个体应该能够针对算法系统产生的不良结果采取行动,受到越来越多的关注。然而,过去关于算法追索的大部分文献主要关注如何为单个个体提供追索,而忽视了一个关键要素:不断变化的环境对追索的影响。在本文中,我们提出了一个基于代理的仿真框架,用于研究不断变化的环境对算法追索的影响。我们的研究发现,只有一小部分具体的参数设置才能使算法追索随时间可靠。因此,我们认为还需要大量的工作来了解随时间的追索可靠性,并开发能够奖励代理努力的追索方法。
Sep, 2023
算法回溯是提升机器学习模型解释性、透明性和伦理性的一种突出技术;现有的算法回溯方法通常假设预测模型是不变的,但预测模型往往会在新数据到达时进行更新,因此对于未来的模型而言,对现有模型有效的回溯方法可能变得无效。为解决这个问题,我们提出了一个新框架生成与模型变化鲁棒的模型无关回溯。我们的框架首先构建了一个基于线性 (代理) 模型的可覆盖性和有效性感知回溯,然后根据这个线性模型生成回溯。我们建立了我们的可覆盖性和有效性感知线性模型与极小最大概率机 (MPM) 之间的理论联系,并证明通过给定不同的协方差鲁棒性,我们的框架可以恢复 MPM 的常用正则化,包括ℓ2 正则化和类别重新加权。此外,我们还展示了我们的代理模型直观地推动近似超平面,使得回溯既具有鲁棒性又具有可解释性。数值结果证明了我们框架的有用性和鲁棒性。
Nov, 2023
提出了一个学习理论框架,比较了分类有和没有算法追溯的风险,发现在许多情况下提供算法追溯反而有害,因为它会使用户产生更多的错误。此外,提供算法追溯有时会对系统整体造成伤害。因此,对当前的算法追溯概念需要重新思考。
Jun, 2023
通过提出一种新的框架,关注相关度在应用算法补救到回归任务中的影响,我们发现相关性对算法补救具有相当的贡献,同时能提高效率和降低相对成本。
May, 2024
本文研究了机器学习中的算法回溯问题,在考虑了精度和鲁棒性之外,提出应当考虑公平、隐私、责任和可解释性等价值观,并对相关文献进行了全面审视,提出了一些解决方案。同时,作者还为该领域的研究方向提供了一些新的视角和方向,挑战了一些关于安全、隐私和公平性方面的假设。
Oct, 2020
对算法补救研究的现有假设提出质疑,指出参与者对补救方案的接受和行动意愿与补救距离并不相关,并呼吁重新思考评估函数以实现以人为中心的补救生成。
现有关于反事实解释和算法回应的研究主要集中在静态环境中的个体上,但对于处理数据和模型漂移等动态环境的能力仍然是一个未被充分探索的研究挑战。在个体实施回应的实际情况如何影响其他个体方面也缺乏研究。通过模拟实验,本文发现现有的算法回应方法的应用可能会受到域和模型漂移的影响,但同时提出了几种缓解这些问题的策略。同时,我们提出了一个快速且开源的模拟框架,用于研究回应动态。
Aug, 2023
针对内容提供者,我们提出了一个适用于推荐系统的追索框架,旨在理解模型在做出特定预测和推荐时的基本原理,并通过对三个真实数据集上训练的推荐系统进行实证评估,展示了 RecRec 在生成有效、稀疏和可执行的追索方面的高效性。据我们所知,这项工作是首次对推荐系统生成追索的概念进行了概括和实证测试。