实现负责任 AI:伦理方面的紧张和权衡
人工智能的应用不仅依赖基础研究和技术发展,更需要关注其公平性、透明度和隐私问题。为了确保 AI 的合理应用,我们需要制定技术、社会、制度和法律方法和工具,提高所有人的参与度和意识,确保 AI 系统与我们社会的原则和价值观一致。
May, 2022
研究表明,围绕着五个伦理原则(透明度、正义与公平、非恶意行为、责任和隐私),出现了全球一致性的道德人工智能共识,提出了相关的指导原则和技术标准,同时应该充分融合伦理分析和实施策略的努力。
Jun, 2019
我们认为社区旨在减轻技术的潜在危害影响,通过定义公私保密、公平和透明模型等一些责任支柱作为指标是根本错误的,因为这些定义是人类价值的不完美、独立构建,而带着那些价值完全嵌入我们的技术的幌子。我们推动 AI 社区重新考虑某些支柱公式的选择带来的所有后果,而不仅仅是技术上的不兼容性,而是在部署背景下的影响。我们指出社会技术研究可以为后者提供框架,但还应推动更广泛的实践落地。
Dec, 2022
整理了有关人工智能信任和人工智能的可信度的文献概述,强调了需要更明确区分这些概念并获取更多实证证据以了解人们信任行为的要素。指出对人工智能的信任不仅涉及对系统本身的依赖,还包括对人工智能开发者的信任。伦理原则如可解释性和透明性通常被认为能提高用户的信任,但关于这些特点如何实际影响用户对系统可信度认知的实证证据并不丰富或不太明确。应将人工智能系统视为社会技术系统,设计、开发、部署和使用系统的人员与系统本身一样重要,才能确定系统是否值得信任。忽视这些细微差别,人工智能的信任和可信度有可能成为针对任何人工智能系统的模糊术语。
Sep, 2023
本研究通过使用 Shapley 加性解释和文本聚类与决策树分类器的混合方法,提供了一个对基于深度神经网络的分类模型的解释以验证其可解释性,并对其提供对抗攻击的测试。
Jun, 2022
AI 伦理是学术和政策圈子中一个全球性的讨论话题,近期 meta 分析表明, AI 伦理已经收敛于一组与医学伦理四项经典原则非常相似的原则,但是这种原则取向在 AI 的发展和治理方面可能不会像医学那样成功,因为它们之间存在四个显著的不同点。
Jun, 2019
提出了可信人工智能的七个技术要求和三个主要支柱的构建方法,并考虑到了系统整个生命周期中的所有过程和角色的可信性。同样,还介绍了通过审核过程提高人工智能系统的责任的概念,以及为了未来社会进步而必须面对的规制辩论。
May, 2023