负责任人工智能框架的快速综述:引导道德人工智能的发展
本文研究了科学研究机构在负责人工智能设计和开发中的道德风险意识和准备情况,揭示了知识缺口和对可用人工智能伦理框架的意识有限。我们的研究结果显示,在没有适当的指导和管理下实施人工智能技术可能会带来潜在的道德风险,因此需要全面的策略来提高团队能力,支持负责、道德和包容的人工智能开发和部署。
Dec, 2023
该论文关注了 COMPLYING WITH THE EU AI Act 准则并开发实施 AI 系统的情况,分析了不同伦理准则的文献细节、伦理 AI 框架的适用性等问题,提出了伦理 AI 的限制以及进行可靠的 AI 开发的建议
May, 2023
本文提出了一种在人性化设计和敏捷开发中建立和维护信任的理论框架,它强调了商业技术的协同创新过程。框架的目的是通过让所有利益相关者参与到项目中来,将人工智能技术与人们一起设计、开发和部署,以创新和改进业务。以医院规划助理为例,展示了该框架在实际应用中的效果。
Sep, 2022
本文提出了两个新的软件库,即 hydra-zen 和 rAI-toolbox,这两个库旨在解决对负责任的人工智能工程的关键需求,包括使复杂的 AI 应用程序可配置,并使它们的行为可复现,以及以可扩展的方式评估和增强 AI 模型的鲁棒性。
Jan, 2022
本文提供了针对 National Security Commission on Artificial Intelligence (NSCAI) 关于负责任开发和部署人工智能的主要考虑因素的建议,重点在于要将 “负责任 AI” 作为常规而不是例外,并提供了一套可操作的框架来实现这一目标。
Jan, 2021
我们的研究旨在推进负责任的人工智能(AI)的概念,这是欧盟政策讨论中日益重要的主题。我们提出了一种全面且目前为止我们所知的第一个负责任 AI 的统一定义。通过结构化文献综述,我们阐明了关于负责任 AI 的当前理解,并基于该分析提出了未来以此概念为中心的框架发展方法。我们的发现支持以人为中心的负责任 AI 方法,其中包括以伦理、模型可解释性以及隐私、安全和信任为支柱的 AI 方法的实施。
Mar, 2024
人工智能的应用不仅依赖基础研究和技术发展,更需要关注其公平性、透明度和隐私问题。为了确保 AI 的合理应用,我们需要制定技术、社会、制度和法律方法和工具,提高所有人的参与度和意识,确保 AI 系统与我们社会的原则和价值观一致。
May, 2022
本研究综述了值得信赖的人工智能(TAI)及其各种定义,提出了离开支配和工程语境中的责任或伦理人工智能等术语以明确任何混淆的建议,并强调了公平性、偏见、风险、安全性、可解释性和可靠性等关键属性和特性以发展一个普遍框架来处理这些问题,同时考虑了欧盟、中国和美国在 AI 领域的政策和法规以及跨国公司面临的调整挑战,提出了一个新的框架 SFMA 来执行 TAI 和规范化措施,同时警示过度规制对 TAI 和技术创新可能造成的危害。
Mar, 2024