设计信托人工智能
利用数据科学生命周期(DSL)的方法,分析了自动化决策系统中信托责任的角色,认为信托责任可以解决公众对当前这种系统和相关机构缺乏信任的问题,并以洛杉矶警察局的预测警务为案例进行了研究。
Jan, 2023
提出了可信人工智能的七个技术要求和三个主要支柱的构建方法,并考虑到了系统整个生命周期中的所有过程和角色的可信性。同样,还介绍了通过审核过程提高人工智能系统的责任的概念,以及为了未来社会进步而必须面对的规制辩论。
May, 2023
本文从计算的角度综述了 AI 可信赖性的最新技术,其中包含了六个方面:安全、非歧视与公平、可解释性、隐私、责任与审计能力以及环境福祉,旨在帮助读者理解可信赖 AI 的最新技术以及现实系统的应用。
Jul, 2021
人工智能的应用不仅依赖基础研究和技术发展,更需要关注其公平性、透明度和隐私问题。为了确保 AI 的合理应用,我们需要制定技术、社会、制度和法律方法和工具,提高所有人的参与度和意识,确保 AI 系统与我们社会的原则和价值观一致。
May, 2022
本研究提供了一种系统的方法来将社会科学信任概念与建立在人工智能服务和产品上使用的机器学习技术相关联,探讨了四种类别的机器学习技术 (公平性、可解释性、可审计性和安全性) 如何影响人们的信任,并介绍了在 AI 系统生命周期的不同阶段建立信任的技术需求。
Nov, 2019
本研究旨在建立一个 AI 理解法律标准更广泛的框架,并通过遵循法律反馈(RLLF)进行强化学习,研究表明,在使用美国法院意见标准的大型语言模式方面,AI 在理解受托义务方面的准确性可达到 78%,表明 AI 在解释不确定状态下指令方面具有一定的理解能力,并为该能力的改进奠定基础。
Jan, 2023
人工智能在我们的日常生活中越来越广泛地使用,尤其在各种应用、服务和产品中。因此,从用户角度来看,对人工智能的信任或不信任变得非常重要。这篇论文通过系统文献综述,探讨了当前人工智能领域的信任概念,并研究了不同类型的人机交互中的信任以及其对不同领域的技术接受度的影响。此外,还提出了技术和非技术的可信度指标以及一些可信度衡量标准,并分析了一些人工智能中的主要破坏因素和信任建立因素,并为实现可信度从而实现人工智能的可靠过渡提出了一些未来的方向和可能的解决方案。
Mar, 2024
研究旨在提高人工智能系统的可信度和信任度,开发能够适应实际应用场景的人工智能系统,并将人类放在其中心地位,使其能够有效地使用系统,理解输出和解释结果以满足监管委员会的要求。
Jan, 2020
本研究综述了值得信赖的人工智能(TAI)及其各种定义,提出了离开支配和工程语境中的责任或伦理人工智能等术语以明确任何混淆的建议,并强调了公平性、偏见、风险、安全性、可解释性和可靠性等关键属性和特性以发展一个普遍框架来处理这些问题,同时考虑了欧盟、中国和美国在 AI 领域的政策和法规以及跨国公司面临的调整挑战,提出了一个新的框架 SFMA 来执行 TAI 和规范化措施,同时警示过度规制对 TAI 和技术创新可能造成的危害。
Mar, 2024