结构化访问:安全部署 AI 的新兴范式
这篇论文探讨了人工智能等技术在决策敏感的应用中,遵循数据隐私、可解释性、鲁棒性、推理等原则,同时着重探讨在结构化数据的应用方面如何设计可靠的方法来确定和使用相关变量进行决策。
Oct, 2022
我们介绍了一项旨在开发开源且用户友好的人工智能系统,以用于生物医学和医疗保健领域复杂数据的机器学习分析,其中遗传编程技术可以帮助实现,并且强调了以前项目中遗传编程已经自动进行了机器学习分析的具体示例。
May, 2017
我们的研究旨在推进负责任的人工智能(AI)的概念,这是欧盟政策讨论中日益重要的主题。我们提出了一种全面且目前为止我们所知的第一个负责任 AI 的统一定义。通过结构化文献综述,我们阐明了关于负责任 AI 的当前理解,并基于该分析提出了未来以此概念为中心的框架发展方法。我们的发现支持以人为中心的负责任 AI 方法,其中包括以伦理、模型可解释性以及隐私、安全和信任为支柱的 AI 方法的实施。
Mar, 2024
该论文探讨了人工智能的发展带来的挑战,提出了在系统、架构和安全方面的研究方向,以解决 AI 技术存储和处理数据量的限制,并提高数据隐私保护,以便这一技术能够更好地改善人们的生活和社会。
Dec, 2017
本文使用分层复杂系统框架对人工智能(AI)风险进行建模,并从公共和私营领域的领域专家收集调查数据以分类 AI 影响和可能性,结果显示强大的 AI 代理情景有更多不确定性,对 AI 对齐失败和影响寻求行为的关注增加以及对多智能体环境的信心增强。
Nov, 2022
该论文探讨了需求透明度和可接受性以建立人类对 AI 的信赖感,具体介绍了开发者和最终用户在信息需求方面的差异以及信任在人工智能系统中的作用。
Jun, 2023
本文概述了当今为实现 “结构透明” 而进行的研究的前沿,提供了一个概括性的理论框架和词汇,包括表征基本组件 - 输入隐私、输出隐私、输入验证、输出验证和流程治理 - 以及复制、捆绑和递归监督等基本问题,并论证了最近随着 “隐私增强技术” 的发展,如安全计算和联邦学习,可以在许多领域显着减少潜在的使用 - 滥用的权衡。本文最后给出了结构透明的几个应用示例,包括开放式研究、能源管理和信用评分系统,并讨论了这些工具被滥用的风险。
Dec, 2020
本研究综述了值得信赖的人工智能(TAI)及其各种定义,提出了离开支配和工程语境中的责任或伦理人工智能等术语以明确任何混淆的建议,并强调了公平性、偏见、风险、安全性、可解释性和可靠性等关键属性和特性以发展一个普遍框架来处理这些问题,同时考虑了欧盟、中国和美国在 AI 领域的政策和法规以及跨国公司面临的调整挑战,提出了一个新的框架 SFMA 来执行 TAI 和规范化措施,同时警示过度规制对 TAI 和技术创新可能造成的危害。
Mar, 2024
对用户信任、影响因素和测量方法进行的 23 个实证研究的综述确认了定义信任的多种方法和用户特征对 AI 启用系统中的信任产生的影响等主题,从而为未来技术和设计策略、研究和举措提供了洞察。
Apr, 2023