探索科学研究的负责任人工智能:一项实证研究
人工智能的应用不仅依赖基础研究和技术发展,更需要关注其公平性、透明度和隐私问题。为了确保 AI 的合理应用,我们需要制定技术、社会、制度和法律方法和工具,提高所有人的参与度和意识,确保 AI 系统与我们社会的原则和价值观一致。
May, 2022
简要介绍了几个提供负责人工智能应用程序的框架,发现大多数框架仅适用于需求调查阶段,仅有一些私人公司提供了支持工具。结果表明,还缺乏一个全面的框架,该框架包含所有负责人工智能的原则和所有 SDLC 阶段,并可由不同技能集和不同目标的用户浏览。
Jun, 2023
我们的研究旨在推进负责任的人工智能(AI)的概念,这是欧盟政策讨论中日益重要的主题。我们提出了一种全面且目前为止我们所知的第一个负责任 AI 的统一定义。通过结构化文献综述,我们阐明了关于负责任 AI 的当前理解,并基于该分析提出了未来以此概念为中心的框架发展方法。我们的发现支持以人为中心的负责任 AI 方法,其中包括以伦理、模型可解释性以及隐私、安全和信任为支柱的 AI 方法的实施。
Mar, 2024
通过分析可解释的人工智能、可信的人工智能和道德人工智能等三个主要概念,本研究定义了负责任的人工智能并确定了其核心原则。方法论上,成功地将人工智能的能力应用于文献计量学,以加强知识发现,并通过领域见解对实验模型进行交叉验证。在实证方面,本研究调查了自 2015 年以来人工智能社区贡献的 17,799 篇研究文章,揭示了负责任人工智能的主题和层次结构,并阐明了责任原则与主要人工智能技术之间的相互作用。作为一项旨在探索负责任人工智能的先驱性文献计量研究之一,本研究将提供综合的宏观洞察,加深对负责任人工智能的理解,并为人工智能监管和治理倡议提供宝贵的知识支持。
May, 2024
本文提供了针对 National Security Commission on Artificial Intelligence (NSCAI) 关于负责任开发和部署人工智能的主要考虑因素的建议,重点在于要将 “负责任 AI” 作为常规而不是例外,并提供了一套可操作的框架来实现这一目标。
Jan, 2021
本文提出了两个新的软件库,即 hydra-zen 和 rAI-toolbox,这两个库旨在解决对负责任的人工智能工程的关键需求,包括使复杂的 AI 应用程序可配置,并使它们的行为可复现,以及以可扩展的方式评估和增强 AI 模型的鲁棒性。
Jan, 2022
本文介绍了开发 Socially Responsible AI Algorithms 框架的意义和方法来实现人工智能的可信赖,从而提高人类社会的福祉。
Jan, 2021
人工智能是一个有潜力革命化从医疗保健到金融等领域的技术,但需要负责任地开发和部署。这篇研究论文探讨了负责任人工智能和可解释人工智能的关系,并发现可解释人工智能在确保公平性、透明度等方面对负责任人工智能是至关重要的。
Dec, 2023