解释黑客:算法求救的危险
本文研究了机器学习中的算法回溯问题,在考虑了精度和鲁棒性之外,提出应当考虑公平、隐私、责任和可解释性等价值观,并对相关文献进行了全面审视,提出了一些解决方案。同时,作者还为该领域的研究方向提供了一些新的视角和方向,挑战了一些关于安全、隐私和公平性方面的假设。
Oct, 2020
我们提出了一种基于机器学习的回溯算法,用于提供决策结果不理想的人可以采取的可操作的一系列改变,以改善他们的结果。我们的算法可适用于各个不同 iable 的基于机器学习的决策系统,并填补了关于公平性的现有文献的不足之处。
Jul, 2019
提出了一个学习理论框架,比较了分类有和没有算法追溯的风险,发现在许多情况下提供算法追溯反而有害,因为它会使用户产生更多的错误。此外,提供算法追溯有时会对系统整体造成伤害。因此,对当前的算法追溯概念需要重新思考。
Jun, 2023
本文旨在探讨可解释人工智能是否能帮助解决自主 AI 系统所提出的责任问题,并得出结论,提供一系列建议如何处理算法决策的社会技术过程,并提出采用严格的法规来防止设计者逃避责任。
May, 2022
在高风险情况下,通过对敌对示例和反事实解释的形式定义,我们介绍了非敌对算法性回应,并阐明了为什么在获得不具备敌对特性的反事实解释方面是至关重要的。我们进一步研究了目标函数中不同组件(例如用于计量距离的机器学习模型或成本函数)如何决定结果是否可以被视为敌对示例。我们对常见数据集进行的实验证明,这些设计选择通常比使用回应或攻击算法更关键,以决定回应是否具有非敌对特性。此外,我们展示了选择强大和准确的机器学习模型会导致实践中所期望的更少敌对性回应。
Mar, 2024
机器学习系统中不公正和歧视的问题引起了对 “解释权” 的关注。该研究对欧洲数据保护法的规定、法国行政法和欧洲理事会 108 号公约草案中的新的解释权进行了分析。虽然个人权利在隐私法中具有一定的作用,但与之相对应的透明度似乎仅仅是治标不治本的手段,因此其他形式的治理手段如影响评估、软性法律、司法审查和模型资源库等应该得到更多的关注,同时,推动代理机构为用户控制算法系统设计也应得到重视。
Mar, 2018