在医疗和其他领域利用人工智能的道德框架
本文综述将人工智能应用到智能医疗产品(包括医疗电子设备)中所面临的伦理挑战,提出了传统医学领域伦理问题和人工智能驱动的医疗伦理挑战之间的区别,特别是在透明度、偏见、隐私、安全、责任、公平和自治方面。还概述了开放性挑战和建议,以促进伦理原则的整合到基于人工智能的智能医疗产品的设计、验证、临床试验、部署、监测、维护和退役中。
Nov, 2022
本文讨论了人工智能在医疗领域中的应用,特别是在医学图像分析中的最新进展、现有标准以及应用人工智能所需考虑的伦理问题和最佳实践。我们探讨了人工智能的技术挑战和伦理挑战,以及在医院和公共组织中部署人工智能的影响和关键技术措施。最后,我们提出了未来解决人工智能在医疗应用中的伦理挑战的建议和方向。
Apr, 2023
我们提出了 GREAT PLEA 伦理原则,涵盖了在医疗中应用生成型人工智能所面临的治理、可靠性、公平性、问责制、可追溯性、隐私、合法性、同理心和自主性等伦理困境和挑战。
Aug, 2023
FUTURE-AI 指南是第一个国际共识框架,用于指导可信赖人工智能医疗工具的开发和部署,该指南基于 6 项可信 AI 原则和 28 项最佳实践,旨在增加 AI 技术在医疗实践中的接受度和应用。
Aug, 2023
这项研究综合了当前和未来的人工智能应用所面临的伦理问题,从技术和社会角度对 AI 部署中的公平性、隐私和数据保护、透明度与可解释性等伦理原则进行了综述。
Nov, 2023
人工智能在改善医疗服务和患者结局方面变得至关重要,但其发展和使用引发了众多伦理、法律和社会经济问题,其中正义是一个主要关注点,该论文讨论了与之相关的团结性、公共利益、可持续性、人工智能偏见和公平性等概念,为非洲地区公平发展人工智能医疗提出了特定背景下的考虑。
Jun, 2024
研究表明,围绕着五个伦理原则(透明度、正义与公平、非恶意行为、责任和隐私),出现了全球一致性的道德人工智能共识,提出了相关的指导原则和技术标准,同时应该充分融合伦理分析和实施策略的努力。
Jun, 2019
医学领域中人工智能(AI)的道德整合需要解决公平性这个高度依赖上下文的概念。本文通过详细的证据缺口分析,系统地指出了医疗数据和 AI 公平解决方案中存在的一些缺陷。我们强调了在许多医学领域中 AI 公平研究的稀缺性。此外,我们分析还凸显了对群体公平的重要依赖,旨在从宏观医疗系统的角度确保人口统计群体之间的平等;相比之下,对于更精细化程度上的个人公平性常常被忽视了。为了填补这些间隙,我们的综述为医疗和 AI 研究社区提出了可操作的策略。除了在医疗中应用现有的 AI 公平方法,我们进一步强调了将医疗专业人员纳入其中,以完善 AI 公平概念和方法,以确保 AI 在医疗领域中具有上下文相关性和道德健全性。
May, 2024
本文提出了一种在人性化设计和敏捷开发中建立和维护信任的理论框架,它强调了商业技术的协同创新过程。框架的目的是通过让所有利益相关者参与到项目中来,将人工智能技术与人们一起设计、开发和部署,以创新和改进业务。以医院规划助理为例,展示了该框架在实际应用中的效果。
Sep, 2022