透明度:动机与挑战
人工智能知识系统与透明度的挑战,包括知识与人的关联性,对组织和个体视野的影响,以及系统透明度、程序透明度和结果透明度等方面,需要引起进一步研究和关注。
Jan, 2024
本文概述了当今为实现 “结构透明” 而进行的研究的前沿,提供了一个概括性的理论框架和词汇,包括表征基本组件 - 输入隐私、输出隐私、输入验证、输出验证和流程治理 - 以及复制、捆绑和递归监督等基本问题,并论证了最近随着 “隐私增强技术” 的发展,如安全计算和联邦学习,可以在许多领域显着减少潜在的使用 - 滥用的权衡。本文最后给出了结构透明的几个应用示例,包括开放式研究、能源管理和信用评分系统,并讨论了这些工具被滥用的风险。
Dec, 2020
本文中,我们阐述了明确的 AI 透明度目标,即以用户为中心、恰当的透明度和诚实的透明度。我们进行了广泛的文献调查,将透明度概念的许多相似聚类与我们的目标联系起来,以便政策制定者、利益相关者和从业者能够交流具体需求和提供适当的解决方案。
Mar, 2023
增加商业、科学、政府和个人活动向 AI 代理地委托,可能加剧现有社会风险并引入新风险。了解和缓解这些风险需要对现有管理结构进行批判性评估,在需要时进行修订和调整这些结构,并确保关键利益相关者的责任追究。对特定 AI 代理的使用地点、原因、方式和使用者的信息,也就是所谓的 “可见性”,对于实现这些目标至关重要。本文评估了增加对 AI 代理可见性的三类措施:代理标识符、实时监测和活动记录。对于每个措施,我们概述了可能的实施方式,这些方式在侵入性和信息性方面存在差异。我们分析了这些措施如何适用于从集中式到分散式部署环境的各种情景,并考虑了供应链中的各种参与者,包括硬件和软件服务提供商。最后,我们讨论了我们措施对隐私和权力集中的影响。进一步研究这些措施并缓解其负面影响,有助于为 AI 代理的治理奠定基础。
Jan, 2024
本论文提出了一个透明度指数框架,着眼于透明的人工智能教育系统在数据收集、实现职责和安全性等方面的实现,并展示了透明度如何实现其他如可解释性和责任方面的道德人工智能纬度。
May, 2022
本文研究了算法的透明度对算法设计者的成本的影响,进而探究了用户的策略意图对透明机器学习算法设计和性能的影响,通过建模用户和设计者之间的零和博弈,量化了透明性带来的成本,设定成为透明代价。
Oct, 2016
在大型语言模型与透明度的讨论中,我们必须考虑不同利益相关者在不同情境下的需求,并构建在人们处理、交互和使用信息方面所了解的经验基础上的透明度方法,这是一篇关于应对 LLM 这个新时代带来的人工智能透明度挑战的文章.
Jun, 2023
本文介绍了一种补充的透明度形式 —— 估计和传达模型预测的不确定性,探讨了如何使用不确定性来缓解模型的不公平性、增强决策制定,并在现有机器学习管道中集成不确定性所需的信息。
Nov, 2020