迈向负责任的人工智能开发生命周期:来自信息安全的启示
在当前人工智能时代,本研究讨论了负责任的机器学习数据集的重要性,并提出了一个评估数据集的负责任框架。通过公平性、隐私保护和合规性等方面的考虑,我们分析了超过 100 个数据集,发现没有一个数据集能免于公平性、隐私保护和合规性问题。我们对数据集的文档化提供了改进建议,并认为在全球范围内的数据保护法规定下,科学界的数据集创建方法需要修订。
Oct, 2023
人工智能的应用不仅依赖基础研究和技术发展,更需要关注其公平性、透明度和隐私问题。为了确保 AI 的合理应用,我们需要制定技术、社会、制度和法律方法和工具,提高所有人的参与度和意识,确保 AI 系统与我们社会的原则和价值观一致。
May, 2022
本文提供了针对 National Security Commission on Artificial Intelligence (NSCAI) 关于负责任开发和部署人工智能的主要考虑因素的建议,重点在于要将 “负责任 AI” 作为常规而不是例外,并提供了一套可操作的框架来实现这一目标。
Jan, 2021
人工智能系统的广泛应用越来越突显算法公正性问题,特别是在高风险情景下。因此,对如何改善人工智能系统的公正性以及可采取的措施进行关键考虑已迫在眉睫。许多研究人员和政策制定者认为可解释的人工智能是提高人工智能系统公正性的一种有希望的方法。然而,可解释的人工智能方法和公正性概念各不相同,它们表达不同的期望,而且可解释的人工智能与公正性之间的确切联系仍然模糊不清。此外,在人工智能系统的整个生命周期中,可能适用不同的措施来增加算法的公正性。然而,目前还没有一种连贯的方法将公正性期望与人工智能生命周期相对应。本文旨在填补这两个空白:我们概括得出了八个公正性期望,将它们与人工智能生命周期相联系,并讨论可解释的人工智能如何帮助解决每个期望。我们希望为实际应用提供方向,并激励特别关注这些公正性期望的可解释的人工智能研究。
Apr, 2024
我们探索了一种人机交互界面的设计,使得普通用户可以识别潜在的公平问题并在贷款决策的背景下解决它们,为评判和解决人工智能的公平性做出贡献。
Apr, 2022
本文探讨了机器学习中公平性、可解释性、人本主义、社会偏差等问题,并提出了一种以人为本的人工智能方法,以增强分类系统和单词嵌入的可解释性和公平性,通过 D-BIAS 等可视化工具识别和缓解社会偏见。
Jun, 2023
本研究通过使用 Shapley 加性解释和文本聚类与决策树分类器的混合方法,提供了一个对基于深度神经网络的分类模型的解释以验证其可解释性,并对其提供对抗攻击的测试。
Jun, 2022
本研究综述了值得信赖的人工智能(TAI)及其各种定义,提出了离开支配和工程语境中的责任或伦理人工智能等术语以明确任何混淆的建议,并强调了公平性、偏见、风险、安全性、可解释性和可靠性等关键属性和特性以发展一个普遍框架来处理这些问题,同时考虑了欧盟、中国和美国在 AI 领域的政策和法规以及跨国公司面临的调整挑战,提出了一个新的框架 SFMA 来执行 TAI 和规范化措施,同时警示过度规制对 TAI 和技术创新可能造成的危害。
Mar, 2024
本报告探讨了不同利益相关者所能采取的各种措施,以改善人工智能系统及其相关开发过程的安全性、公正性、隐私保护等方面的证明,分析了十种机制,并提出了旨在实施、探索或改进这些机制的建议。
Apr, 2020