一个可解释的模型来支持治疗 AML 的决策协议
利用深度学习技术,提出了一种自动化检测急性淋巴细胞白血病的计算机辅助诊断方法,该方法使用多个转移学习模型进行 ALL 分类,并通过本地可解释性模型的背书验证了其准确性,为医疗实践者提供了有价值的工具,突出了可解释人工智能在医学诊断中的影响。
Dec, 2023
通过对现有的解释性机器学习方法的综述,我们详细介绍了如何将常用的解释性机器学习方法应用于生存分析,以实现对模型决策或预测的理解。并且通过对加纳儿童 5 岁以下死亡率的实际数据的应用,展示了如何在实践中使用这些技术来促进对模型决策或预测的理解。
Mar, 2024
一个基于 ResNet 的特征提取器用于检测急性淋巴细胞性白血病(ALL),结合各种特征选择器和分类器,通过多种迁移学习模型提取深层特征后,利用 MLP 分类器对选定数据集中的 ALL 和 HEM 进行分类,取得了卓越的 90.71%准确性和 95.76%的敏感性,并且在该数据集上优于其他方法。
Jun, 2024
乳腺癌是近年来患病率迅速增加的一种导致全球死亡率居高不下的常见疾病,本研究通过使用机器学习方法,特别是 XGBoost 算法,对乳腺癌进行预测和分类,发现 XGBoost 算法在 500 名患者的数据集上取得了 97% 的精确率。
Apr, 2024
我们提出了一个新的诊断急性淋巴细胞白血病的流程,通过模拟血液学家的工作流程,对疾病生物标记物敏感并在 ALL IDB1 上实现 96.15% 的准确率、94.24% 的 F1 分数、97.56% 的敏感度和 90.91% 的特异性,该方法还在一个具有挑战性的数据集上表现良好,并且我们的模型是用相对较小的数据集训练的,突显了我们方法在其他具有有限数据可用性的医学数据集中的潜力。
Jul, 2023
探讨了在医疗保健领域中机器学习的应用。通过在 MIMIC-III 临床笔记中预测死亡率的任务中,我们展示了各种可完全解释的方法和模型不可知后续属性的可视化技术,同时提供了评估解释质量的通用方法。
Jul, 2021
该研究通过解释 AI 推荐来支持临床医生识别 ML 模型训练中的失误,并提出了一种基于临床背景潜在空间、全局解释和基于潜在空间相似性的本地解释的方法来支持医生鉴定基于表格数据的 ML 模型的失误,在早产儿并发症的风险评估中取得了成功应用,并提供临床实用的支持建议。
Dec, 2022
通过将当前最先进的可解释性方法应用于电子病历数据的临床决策支持算法,分析这些因素之间的一致性,并从临床和技术角度讨论确定的差异的原因,进而讨论实现可信赖的临床决策支持的重要因素。
Nov, 2023
本文提供了一个实用的评估框架,用于可解释机器学习模型对于临床决策支持的贡献。研究揭示了 ML 解释模型的更加细致的作用,以及将其实用地嵌入临床背景的方法。 该研究发现,尽管医疗保健专业人员普遍对解释持有积极态度,但对于一定比例的参与者来说,存在负面影响,如确认偏差、过度依赖模型和增加与模型的交互的努力。此外,标准的解释模型显示出支持对模型限制进行关键理解的能力有限。但是,我们发现了具有新的显著积极影响的效果,重新定位了临床背景下解释的作用:包括减少自动化偏差、解决模糊的临床案例(医疗保健专业人员对其决策不确定的情况)并支持获取新领域知识的经验不足的医疗保健专业人员。
Apr, 2022