法律要求对机器学习可解释性的影响
该研究探讨了法律与可解释人工智能(XAI)之间的关系,通过对欧洲法律、AI 法案以及 XAI 方法的要求等方面的研究,得出法律对不同的 XAI 属性有不同的要求,并指出现有技术水平尚不能充分满足这些要求,尤其是在 XAI 方法的正确性和置信度估计方面。
Apr, 2024
本文讨论了欧盟的《通用数据保护条例》对机器学习算法的潜在影响,包括限制基于用户级别预测因素做出决策的自动化决策的使用,, 并创建了 “解释权”,我们认为这为计算机科学家在设计避免歧视、能够解释的算法和评估框架方面提供了机会。
Jun, 2016
本研究探讨了欧盟提出的《人工智能法案》中涉及的 AI 监管,特别关注了卫生保健等高风险领域中使用的 AI 系统的透明性和可解释性的要求。研究发现,XAI 解决方案与 AI 法案的要求存在显著差异,因此认为律师和 XAI 研究人员之间的合作至关重要。该研究讨论了 XAI 的法律关联性和 AI 法案和 GDPR 中的透明性和可解释性要求等四个主要问题。最终旨在促进学科间的研究,支持制定可持续监管,促进负责任的创新。
Feb, 2023
本文研究了 AI 系统解释决策的重要性,探究了现有的端用户可解释性是否满足了解释决策的法律需求,发现端用户可解释性虽然在某些方面表现出色,但在满足理解人类决策者的需求方面表现欠佳,因此提出 AI 系统的解释权可能带来更多负面影响的观点,呼吁相关管理者和机器学习从业者重新考虑 AI 系统的端用户可解释性与解释权。
May, 2023
机器学习系统中不公正和歧视的问题引起了对 “解释权” 的关注。该研究对欧洲数据保护法的规定、法国行政法和欧洲理事会 108 号公约草案中的新的解释权进行了分析。虽然个人权利在隐私法中具有一定的作用,但与之相对应的透明度似乎仅仅是治标不治本的手段,因此其他形式的治理手段如影响评估、软性法律、司法审查和模型资源库等应该得到更多的关注,同时,推动代理机构为用户控制算法系统设计也应得到重视。
Mar, 2018
这篇报告对数据驱动方法 - 特别是机器学习和模式识别模型进行了综述和总结,以便于业界从业者和数据科学家更好地理解 “可解释的人工智能” 的领域并应用正确的工具。
Sep, 2020
本文主要介绍了在高风险背景下机器学习算法变得越来越重要的情况下,为了能够更好地解释机器学习算法,需要考虑相关方利益,例如终端用户,监管机构和领域专家。但是目前较少有关于实现解释性机器学习的工程实践,因此我们进行了一个闭门的研讨会,汇集了学界、产业界、法律界和政策界的专家,分析了当前实现解释性机器学习的现状,分享了大量实例和经验,并探讨了相关未解决的问题。
Jul, 2020
本文概述了现有关于计算机生成机器学习模型正式解释的研究,旨在与之前基于非正式解释的方案进行比较,并讨论了各种问题,包括基于不同机器学习模型的最佳逻辑编码以及如何使解释具有可解释性。
Oct, 2022
本论文针对算法决策中的公平性问题提供了跨学科的构想。其中,法律系统的差异是一个核心问题,同时论文提出了一种上下文方法来处理意外的群体歧视,研究算法决策的可解释性。
May, 2022