AI Act 提案:技术可解释性的新权利?
本研究探讨了欧盟提出的《人工智能法案》中涉及的 AI 监管,特别关注了卫生保健等高风险领域中使用的 AI 系统的透明性和可解释性的要求。研究发现,XAI 解决方案与 AI 法案的要求存在显著差异,因此认为律师和 XAI 研究人员之间的合作至关重要。该研究讨论了 XAI 的法律关联性和 AI 法案和 GDPR 中的透明性和可解释性要求等四个主要问题。最终旨在促进学科间的研究,支持制定可持续监管,促进负责任的创新。
Feb, 2023
该研究探讨了法律与可解释人工智能(XAI)之间的关系,通过对欧洲法律、AI 法案以及 XAI 方法的要求等方面的研究,得出法律对不同的 XAI 属性有不同的要求,并指出现有技术水平尚不能充分满足这些要求,尤其是在 XAI 方法的正确性和置信度估计方面。
Apr, 2024
通过分析有关 AI 规定和政策的立法进展,本研究讨论了可解释性人工智能(XAI)的技术现状及其对 AI 治理的潜在威胁,指出需要明确、合理的立法和政策以解决 AI 解释能力的问题。
May, 2024
机器学习系统中不公正和歧视的问题引起了对 “解释权” 的关注。该研究对欧洲数据保护法的规定、法国行政法和欧洲理事会 108 号公约草案中的新的解释权进行了分析。虽然个人权利在隐私法中具有一定的作用,但与之相对应的透明度似乎仅仅是治标不治本的手段,因此其他形式的治理手段如影响评估、软性法律、司法审查和模型资源库等应该得到更多的关注,同时,推动代理机构为用户控制算法系统设计也应得到重视。
Mar, 2018
本文讨论了欧盟的《通用数据保护条例》对机器学习算法的潜在影响,包括限制基于用户级别预测因素做出决策的自动化决策的使用,, 并创建了 “解释权”,我们认为这为计算机科学家在设计避免歧视、能够解释的算法和评估框架方面提供了机会。
Jun, 2016
本文研究了 AI 系统解释决策的重要性,探究了现有的端用户可解释性是否满足了解释决策的法律需求,发现端用户可解释性虽然在某些方面表现出色,但在满足理解人类决策者的需求方面表现欠佳,因此提出 AI 系统的解释权可能带来更多负面影响的观点,呼吁相关管理者和机器学习从业者重新考虑 AI 系统的端用户可解释性与解释权。
May, 2023
探讨欧盟通用数据保护条例中关于解释权的存在、优点和缺点。 提出使用无条件的反事实解释来支持三个目标:帮助个人了解为何做出特定决策,提供理由以反对决策,以及了解为了将来获得期望的结果需要做出的改变。
Nov, 2017
本文回顾了最近关于可解释 AI(XAI)的技术文献,并认为基于我们当前对该领域的理解,实践中使用 XAI 技术需要考虑特定业务应用程序的利益相关者的具体需求。
Aug, 2021