提供算法回应的激励措施
本文研究了机器学习中的算法回溯问题,在考虑了精度和鲁棒性之外,提出应当考虑公平、隐私、责任和可解释性等价值观,并对相关文献进行了全面审视,提出了一些解决方案。同时,作者还为该领域的研究方向提供了一些新的视角和方向,挑战了一些关于安全、隐私和公平性方面的假设。
Oct, 2020
我们提出了一种基于机器学习的回溯算法,用于提供决策结果不理想的人可以采取的可操作的一系列改变,以改善他们的结果。我们的算法可适用于各个不同 iable 的基于机器学习的决策系统,并填补了关于公平性的现有文献的不足之处。
Jul, 2019
此篇论文提出了两个关于算法追溯的公平性概念,与机会的实质平等以及时间相关,通过建立一个基于代理的模拟追溯框架,展示了在克服初始差异情况下所需的努力,并提出了一种提高追溯公平性的干预措施,并与现有策略进行了比较。
Jan, 2024
提出了一个学习理论框架,比较了分类有和没有算法追溯的风险,发现在许多情况下提供算法追溯反而有害,因为它会使用户产生更多的错误。此外,提供算法追溯有时会对系统整体造成伤害。因此,对当前的算法追溯概念需要重新思考。
Jun, 2023
本文旨在探讨可解释人工智能是否能帮助解决自主 AI 系统所提出的责任问题,并得出结论,提供一系列建议如何处理算法决策的社会技术过程,并提出采用严格的法规来防止设计者逃避责任。
May, 2022
在高风险决策中,算法系统往往被要求提供帮助。鉴于此,算法追索的原则,即个体应该能够针对算法系统产生的不良结果采取行动,受到越来越多的关注。然而,过去关于算法追索的大部分文献主要关注如何为单个个体提供追索,而忽视了一个关键要素:不断变化的环境对追索的影响。在本文中,我们提出了一个基于代理的仿真框架,用于研究不断变化的环境对算法追索的影响。我们的研究发现,只有一小部分具体的参数设置才能使算法追索随时间可靠。因此,我们认为还需要大量的工作来了解随时间的追索可靠性,并开发能够奖励代理努力的追索方法。
Sep, 2023
本文介绍了整数规划工具,以确保在线性分类问题中具有追索权,其中一个人通过更改可操作的输入变量(例如收入与年龄或婚姻状况)来改变模型的决策,并演示了这些工具如何通过信用评分问题的实验向利益相关者提供信息,结果表明,标准的模型开发实践可以极大地影响追索权,并促进实际中对追索权的评估。
Sep, 2018