信任 AI 监管?辨别用户是建立信任和有效的 AI 监管的关键
整理了有关人工智能信任和人工智能的可信度的文献概述,强调了需要更明确区分这些概念并获取更多实证证据以了解人们信任行为的要素。指出对人工智能的信任不仅涉及对系统本身的依赖,还包括对人工智能开发者的信任。伦理原则如可解释性和透明性通常被认为能提高用户的信任,但关于这些特点如何实际影响用户对系统可信度认知的实证证据并不丰富或不太明确。应将人工智能系统视为社会技术系统,设计、开发、部署和使用系统的人员与系统本身一样重要,才能确定系统是否值得信任。忽视这些细微差别,人工智能的信任和可信度有可能成为针对任何人工智能系统的模糊术语。
Sep, 2023
机器学习在工业系统中的应用以及其安全性和合规性对于决策辅助等关键功能具有重要意义,然而,当前机器学习组件的低形式化程度和不确定性使得使用传统的关键系统工程方法难以验证和验证其安全性,因此需要制定适用于人工智能的规范和监管标准,提出可信的人工智能认证方法和工具。
Sep, 2023
政府必须考虑如何设计能够匹配新 AI 功能不断增加速度的监管。监管市场是一种具有适应性的建议。它涉及政府设定以结果为基础的目标,由 AI 公司通过从私营监管机构的市场购买服务来达到这些目标。我们使用演化博弈理论模型,探讨政府在建立监管市场中的作用,以避免鲁莽行为。我们警告说,很容易发现激励措施会阻止监管市场实现这一目标。我们建议政府总是奖励监管机构,除非他们发现这些监管机构没有检测到本应该检测到的不安全行为。这些 “警觉激励” 可以鼓励私营监管机构寻找评估尖端 AI 系统的创新方式。
Mar, 2023
人工智能在我们的日常生活中越来越广泛地使用,尤其在各种应用、服务和产品中。因此,从用户角度来看,对人工智能的信任或不信任变得非常重要。这篇论文通过系统文献综述,探讨了当前人工智能领域的信任概念,并研究了不同类型的人机交互中的信任以及其对不同领域的技术接受度的影响。此外,还提出了技术和非技术的可信度指标以及一些可信度衡量标准,并分析了一些人工智能中的主要破坏因素和信任建立因素,并为实现可信度从而实现人工智能的可靠过渡提出了一些未来的方向和可能的解决方案。
Mar, 2024
提出了可信人工智能的七个技术要求和三个主要支柱的构建方法,并考虑到了系统整个生命周期中的所有过程和角色的可信性。同样,还介绍了通过审核过程提高人工智能系统的责任的概念,以及为了未来社会进步而必须面对的规制辩论。
May, 2023
欧盟人工智能法案是一项基于风险的前瞻性监管方法,旨在预防某些有害结果,并提倡对数据质量和人工监督进行批判性检查;我们建议将责任视为主要监管机制,并区分潜在危害的内生和外生因素,通过合理分配开发者和使用者之间的责任来减轻风险。
Nov, 2023
本文旨在阐明人工智能话语中用户信任的一些误解,并打击设计易受攻击的交互所导致的进一步信任违规事件的倾向。发现揭示了理解用户信任及其对计算机科学的影响的缺乏清晰度,特别是在测量用户信任特征方面。文中呼吁澄清这些概念,以避免人工智能采纳和适用中可能出现的信任差距和误解。
May, 2023
我们提出了一个框架,将可信机器学习视为一个多目标多代理优化问题,在此基础上引入一种名为 Regulation Games 的博弈论模型来解决那些忽视机器学习模型构建者与评估其可信度的问题。我们通过一种称为 ParetoPlay 的新均衡搜索算法来求解此博弈模型,保证了各个代理的目标都保持在 Pareto 前沿上,从而避免了其他均衡的低效性。通过模拟具体的应用情况,我们提供了可供机器学习管制政策制定者参考的政策指导,例如,在性别分类应用中,监管机构如果先主动指定所需的不同隐私预算保证,平均比规定构建者参与制定隐私预算要低 4.0。
Feb, 2024
本文探讨如何规范人工智能系统,研究发现通过两个公共部门采购清单可标识现在和未来技术创新方面的人工智能是否符合规定要求,并且确认需跨学科合作来满足某些要求。
Jun, 2023
对用户信任、影响因素和测量方法进行的 23 个实证研究的综述确认了定义信任的多种方法和用户特征对 AI 启用系统中的信任产生的影响等主题,从而为未来技术和设计策略、研究和举措提供了洞察。
Apr, 2023