医疗保健中的负责任人工智能
我们的研究旨在推进负责任的人工智能(AI)的概念,这是欧盟政策讨论中日益重要的主题。我们提出了一种全面且目前为止我们所知的第一个负责任 AI 的统一定义。通过结构化文献综述,我们阐明了关于负责任 AI 的当前理解,并基于该分析提出了未来以此概念为中心的框架发展方法。我们的发现支持以人为中心的负责任 AI 方法,其中包括以伦理、模型可解释性以及隐私、安全和信任为支柱的 AI 方法的实施。
Mar, 2024
本文综述将人工智能应用到智能医疗产品(包括医疗电子设备)中所面临的伦理挑战,提出了传统医学领域伦理问题和人工智能驱动的医疗伦理挑战之间的区别,特别是在透明度、偏见、隐私、安全、责任、公平和自治方面。还概述了开放性挑战和建议,以促进伦理原则的整合到基于人工智能的智能医疗产品的设计、验证、临床试验、部署、监测、维护和退役中。
Nov, 2022
人工智能的应用不仅依赖基础研究和技术发展,更需要关注其公平性、透明度和隐私问题。为了确保 AI 的合理应用,我们需要制定技术、社会、制度和法律方法和工具,提高所有人的参与度和意识,确保 AI 系统与我们社会的原则和价值观一致。
May, 2022
本文讨论了人工智能在医疗领域中的应用,特别是在医学图像分析中的最新进展、现有标准以及应用人工智能所需考虑的伦理问题和最佳实践。我们探讨了人工智能的技术挑战和伦理挑战,以及在医院和公共组织中部署人工智能的影响和关键技术措施。最后,我们提出了未来解决人工智能在医疗应用中的伦理挑战的建议和方向。
Apr, 2023
本文探讨了可信人工智能的问题,特别关注于医疗应用,并强调了组织问责制在人们如何理解和信任智能系统中扮演的重要角色。为了说明组织问责制的重要性,作者进行了乳腺癌筛查和癌症治疗规划的民族志研究,提出了一些促进可信人工智能发展的方案。
Nov, 2022
本文介绍了开发 Socially Responsible AI Algorithms 框架的意义和方法来实现人工智能的可信赖,从而提高人类社会的福祉。
Jan, 2021
AI 技术的快速发展与伦理维度的深入研究,特别关注于医疗领域,探索透明度、数据管理、人工监督、教育要求以及国际合作等众多方面,呼吁全球统一的 AI 伦理原则和框架,并提出有益的伦理方案以应对新兴挑战。
Aug, 2023
本文研究了科学研究机构在负责人工智能设计和开发中的道德风险意识和准备情况,揭示了知识缺口和对可用人工智能伦理框架的意识有限。我们的研究结果显示,在没有适当的指导和管理下实施人工智能技术可能会带来潜在的道德风险,因此需要全面的策略来提高团队能力,支持负责、道德和包容的人工智能开发和部署。
Dec, 2023
通过分析可解释的人工智能、可信的人工智能和道德人工智能等三个主要概念,本研究定义了负责任的人工智能并确定了其核心原则。方法论上,成功地将人工智能的能力应用于文献计量学,以加强知识发现,并通过领域见解对实验模型进行交叉验证。在实证方面,本研究调查了自 2015 年以来人工智能社区贡献的 17,799 篇研究文章,揭示了负责任人工智能的主题和层次结构,并阐明了责任原则与主要人工智能技术之间的相互作用。作为一项旨在探索负责任人工智能的先驱性文献计量研究之一,本研究将提供综合的宏观洞察,加深对负责任人工智能的理解,并为人工智能监管和治理倡议提供宝贵的知识支持。
May, 2024