医学成像负责任基础模型的伦理框架
通过引入 FairMedFM,一个公平性基准,对医学影像中基础模型的公平性性能进行综合评估,我们揭示了不同 FMs 之间的偏见存在、不同 FMs 的效用与公平性权衡以及现有不公平缓解方法的有限效果。
Jul, 2024
基于自我监督方法使用大规模数据集训练的基础模型(FMs)被广泛应用于各个领域,包括医疗保健领域,特别在自然语言处理、医学图像分析、临床大型语言模型和病理组学数据等方面。该综述论文全面概述了 FMs 在医疗保健领域的历史、学习策略、旗舰模型、应用和挑战,并提供了详细的医疗应用分类,同时讨论了 FMs 所面临的挑战和未来研究方向。
Jun, 2024
使用人工智能(AI)指导患者护理或操作过程的影响是 AI 模型输出、基于该输出的决策制定协议以及参与方采取必要后续行动的相互作用。斯坦福医疗保健的数据科学团队开发了一种 “公平、有用和可靠 AI 模型(FURM)” 的机制,通过进行伦理审查来识别潜在的价值不匹配,通过模拟估计有用性,通过财务预测评估可持续性,以及通过分析来确定 IT 的可行性,设计部署策略,并推荐前瞻性的监测和评估计划,从而实现在部署之前估计其影响效果,以及在实时研究其影响效果。我们报道了对六个 AI 模型指导解决方案进行的 FURM 评估,以评估其潜在采用性的过程,涵盖临床和操作设置,每年可能影响数十个到数万个患者。我们描述了评估过程,总结了这六个评估,并分享了我们的框架,以使他人能够进行类似的评估。在我们评估的六个方案中,有两个已进入规划和实施阶段。我们的创新贡献,包括模拟估计的有用性、量化可持续性的财务预测以及进行伦理评估的过程,以及底层方法和开源工具,可供其他医疗保健系统进行可行的候选 AI 解决方案评估。
Feb, 2024
通过提供医学成像领域基础模型的综合概述,本调查旨在帮助研究人员了解基础模型的基本概念、培训策略、计算要求以及在医学图像分析方面的机会、应用和未来发展方向。
Oct, 2023
本研究旨在构建放射学基础模型(RadFM),通过数据、模型设计和评估的多方面视角构建基础模型。我们的贡献包括:(一)构建一个大规模的医疗多模态数据集 MedMD,包含 1600 万份 2D 和 3D 医学扫描,这是首个包含 3D 医学扫描的多模态数据集。(二)提出了一种架构,实现可视化条件生成预训练,允许将文本输入与 2D 或 3D 医学扫描相结合,以生成多样化的放射学任务响应。模型首先在 MedMD 上进行预训练,然后在 RadMD 上进行领域特定的微调,RadMD 是 MedMD 的一种经过放射学清理的版本,包含 300 万份放射学视觉语言对。(三)我们提出了一个全面评估基础模型在处理实际临床问题方面能力的新评估基准,包括五个任务。实验结果证实,RadFM 明显优于现有的多模态基础模型。为促进该领域的进一步研究和发展,我们将公开提供代码、数据和模型检查点。
Aug, 2023
AI 技术的快速发展与伦理维度的深入研究,特别关注于医疗领域,探索透明度、数据管理、人工监督、教育要求以及国际合作等众多方面,呼吁全球统一的 AI 伦理原则和框架,并提出有益的伦理方案以应对新兴挑战。
Aug, 2023
本文讨论了大规模预训练模型,即基础模型,用于分析医学图像的机遇、应用和未来方向。具体而言,我们说明了医学基础模型的 “光谱”,从一般的视觉模型、模态特异性模型到器官 / 任务特异性模型,强调它们的挑战、机会和应用,以此来提高医学图像分析的准确性和效率,从而促进更加精确的诊断和治疗决策。
Jun, 2023
基于现有数据进行预训练的基础模型在促进医疗卫生事业中发挥着积极作用,它打破了有限人工智能模型与多样化医疗实践之间的矛盾,提供了更广泛的医疗场景,从而改善智能医疗服务。本文对基础模型的挑战、机遇和未来发展方向进行了全面深入的调研和探讨,以期加深人们对基础模型的认识和为未来发展提供有价值的指导。
Apr, 2024
该研究分析了一个公开可访问的胸部 X 光基础模型,发现模型存在性别和种族等保护特征的嵌入,这可能导致临床决策的性能退化和不公平性,因此,建议对基础模型进行充分的偏见和子组织性能分析。
Sep, 2022