对算法补救研究的现有假设提出质疑,指出参与者对补救方案的接受和行动意愿与补救距离并不相关,并呼吁重新思考评估函数以实现以人为中心的补救生成。
May, 2024
该论文研究算法性救济,包括在自动化决策系统中提供可行的建议,如何在相关不利的情况下提供建议并保持鲁棒性,通过正则化决策分类器来促进鲁棒救济。
Dec, 2021
通过两种概率方法选取最优行动以在有限的因果知识下实现补救,以解决缺乏真实结构因果模型的限制,并在不完美的因果知识下提供比非概率基线更可靠的建议。
Jun, 2020
基于实例化反事实解释的隐私回溯路径,提供了一种端到端的隐私保护管道,可生成逼真的回溯路径。
Nov, 2023
在高风险决策中,算法系统往往被要求提供帮助。鉴于此,算法追索的原则,即个体应该能够针对算法系统产生的不良结果采取行动,受到越来越多的关注。然而,过去关于算法追索的大部分文献主要关注如何为单个个体提供追索,而忽视了一个关键要素:不断变化的环境对追索的影响。在本文中,我们提出了一个基于代理的仿真框架,用于研究不断变化的环境对算法追索的影响。我们的研究发现,只有一小部分具体的参数设置才能使算法追索随时间可靠。因此,我们认为还需要大量的工作来了解随时间的追索可靠性,并开发能够奖励代理努力的追索方法。
Sep, 2023
通过计算具有风险考虑的途径,这篇论文旨在为那些受到机器学习模型决策不利影响的个体提供补救建议,以便改善他们的处境并获得有利的决策。
Aug, 2023
本文旨在探讨对算法提供诉求时对于隐私泄露的重要风险,通过 membership inference attacks 方法将对算法使用的数据的私密信息泄露。
Nov, 2022
本文提出了一种新的算法回溯框架 DEAR,通过解缠共变特征的潜在表示来捕捉实践回溯的主要愿景,从而在特征依赖的情况下提供可靠且低成本的回溯。
通过算法补偿实施的反事实推演已成为使人工智能系统具有可解释性的强大工具,本文提出了一种名为 LocalFACE 的模型不可知技术,通过局部获取的信息在每个算法补偿步骤中构建可行且可操作的反事实解释。
本文研究了机器学习中的算法回溯问题,在考虑了精度和鲁棒性之外,提出应当考虑公平、隐私、责任和可解释性等价值观,并对相关文献进行了全面审视,提出了一些解决方案。同时,作者还为该领域的研究方向提供了一些新的视角和方向,挑战了一些关于安全、隐私和公平性方面的假设。
Oct, 2020