面向公共政策的基于人工智能决策的系统卡片
本文介绍了一种算法审计框架,可支持人工智能系统从开发到部署的全生命周期,以评估决策的符合情况并通过确保审计的完整性来填补开发和部署大规模人工智能系统的问责制鸿沟。
Jan, 2020
机器学习算法应用于如信贷贷款或刑法司法等关乎人类生活方面的情境,其所基于的数据若含有人类偏见决策,则会产生人类偏见决策,拥有公平观念的机器学习是一种解决方案,但是如何实现公平面临着 “多维面” 等难题,要想在不同领域实现公平、公正,算法必须做到数据和开发者审查的透明化,在此基础上不断进行公平审计。
Jan, 2019
通过重温 Nissenbaum 文章中关于计算机化对责任追究带来的挑战,结合最新的关于关系型责任追究框架的研究,探讨了数据驱动算法系统所面临的困难,并讨论了削弱这些困难的方法。
Feb, 2022
本文探讨了机器学习如何工作以及如何制定公正和负责任的算法,重点考虑了在刑事司法系统中执行决策的案例,并对 HART 作为现实世界分类器的技术特征进行了说明和四个规范基准进行了评估。
Nov, 2018
本文着重讨论两种标准的黑盒算法审计形式:第一种审计形式(命名为 Bobby 审计形式)检查算法的谓词,而第二种审计形式(Sherlock)则更松散地进行多项调查,为结构化黑盒算法审计领域与法律的关系提供了关键见解
Feb, 2022
本文提出了一种新的公平得分和标准操作程序,用于发放公平认证,以确保人工智能系统是公平的,避免偏见、提高可信度。发放公平认证在商业部署中具有操作框架和促进公平概念的优点。通过多个数据集迭代培训模型并比较受保护属性中的比较偏见,验证了提出的框架的正确性。
Jan, 2022
通过对 5 个经济合作与发展组织国家的 27 名公共部门机器学习从业者进行访谈,本文探讨了在算法决策应用,如税收、司法和儿童保护中如何理解和注入公共价值观。结果显示出在当前可用、透明和 “区分度感知” 的机器学习研究中,缺乏组织和机构现实、限制和需求,存在设计机会,如支持次要数据来源中概念漂移的追踪和构建可用的透明度工具,以识别风险并整合领域知识,旨在支持管理人员和公共服务的 “一线官僚”。我们最后概述了这些高风险应用中的伦理挑战和未来合作方向。
Feb, 2018
提出了针对自动决策系统的公平需求的知觉差异,指出了社会必须解决的基本模糊性和关注点列表,并为自动决策系统中对公平的增加需求赋予了具体含义。
Nov, 2023
本文研究了机器学习中的算法回溯问题,在考虑了精度和鲁棒性之外,提出应当考虑公平、隐私、责任和可解释性等价值观,并对相关文献进行了全面审视,提出了一些解决方案。同时,作者还为该领域的研究方向提供了一些新的视角和方向,挑战了一些关于安全、隐私和公平性方面的假设。
Oct, 2020
本文旨在探讨可解释人工智能是否能帮助解决自主 AI 系统所提出的责任问题,并得出结论,提供一系列建议如何处理算法决策的社会技术过程,并提出采用严格的法规来防止设计者逃避责任。
May, 2022