本文旨在探讨对算法提供诉求时对于隐私泄露的重要风险,通过 membership inference attacks 方法将对算法使用的数据的私密信息泄露。
Nov, 2022
本文研究了机器学习中的算法回溯问题,在考虑了精度和鲁棒性之外,提出应当考虑公平、隐私、责任和可解释性等价值观,并对相关文献进行了全面审视,提出了一些解决方案。同时,作者还为该领域的研究方向提供了一些新的视角和方向,挑战了一些关于安全、隐私和公平性方面的假设。
Oct, 2020
该论文研究算法性救济,包括在自动化决策系统中提供可行的建议,如何在相关不利的情况下提供建议并保持鲁棒性,通过正则化决策分类器来促进鲁棒救济。
Dec, 2021
在高风险决策中,算法系统往往被要求提供帮助。鉴于此,算法追索的原则,即个体应该能够针对算法系统产生的不良结果采取行动,受到越来越多的关注。然而,过去关于算法追索的大部分文献主要关注如何为单个个体提供追索,而忽视了一个关键要素:不断变化的环境对追索的影响。在本文中,我们提出了一个基于代理的仿真框架,用于研究不断变化的环境对算法追索的影响。我们的研究发现,只有一小部分具体的参数设置才能使算法追索随时间可靠。因此,我们认为还需要大量的工作来了解随时间的追索可靠性,并开发能够奖励代理努力的追索方法。
Sep, 2023
本文讨论如何建立一个能够准确预测并确保负面影响不会对不同群体产生不成比例影响的模型,通过优化无论是线性设置还是非线性设置的归属度,来减小归属度不公平现象的发生。
Sep, 2019
我们提出了一种基于机器学习的回溯算法,用于提供决策结果不理想的人可以采取的可操作的一系列改变,以改善他们的结果。我们的算法可适用于各个不同 iable 的基于机器学习的决策系统,并填补了关于公平性的现有文献的不足之处。
Jul, 2019
本文介绍了整数规划工具,以确保在线性分类问题中具有追索权,其中一个人通过更改可操作的输入变量(例如收入与年龄或婚姻状况)来改变模型的决策,并演示了这些工具如何通过信用评分问题的实验向利益相关者提供信息,结果表明,标准的模型开发实践可以极大地影响追索权,并促进实际中对追索权的评估。
Sep, 2018
本研究从补救行动的角度研究算法公正性,提出两个新的公正性准则,明确考虑特征之间的因果关系,从而捕捉在物理世界中执行的补救行动的下游效应。我们探讨了我们的标准与其他标准,如反事实公正性的关系,并且证明了补救公正性与预测公正性互补。最后,我们讨论了是否可以通过社会干预来更好地解决数据生成过程中的公正性违规问题,而不是限制分类器。
通过计算具有风险考虑的途径,这篇论文旨在为那些受到机器学习模型决策不利影响的个体提供补救建议,以便改善他们的处境并获得有利的决策。
Aug, 2023
针对内容提供者,我们提出了一个适用于推荐系统的追索框架,旨在理解模型在做出特定预测和推荐时的基本原理,并通过对三个真实数据集上训练的推荐系统进行实证评估,展示了 RecRec 在生成有效、稀疏和可执行的追索方面的高效性。据我们所知,这项工作是首次对推荐系统生成追索的概念进行了概括和实证测试。