朝向临床预测的透明性:可解释性人工智能方法在养老院生存模型中的应用
研究使用机器学习中的生存分析方法,基于英国长寿研究队列 ELSA 数据,构建了两种基于随机森林和弹性网络算法的生存机器学习模型,并证明了这些模型相较于传统的 Cox 比例风险模型具有更优越的预测性能和稳定性。
Jun, 2023
应用不同的生存分析方法比较其性能,结果表明深度学习(DeepSurv)在歧视度和校准性方面表现最佳,而 AutoScore-Survival 则通过最小变量集实现了较好的性能和解释性。
Mar, 2024
使用 Bayesian 模型和医疗索赔数据构建了一个可解释的生存模型,预测患者出院后的复诊和死亡风险,除了提高准确度,还能够量化相关风险因素和出院前景。
Aug, 2022
本文使用可解释人工智能(XAI)方法分析 COVID 患者死亡率的社会经济差异,建立了一个基于匿名的奥斯汀地区医院数据集的 XGBoost 预测模型,应用了两种 XAI 方法(Shapley 可加性解释和局部可解释模型无关解释)比较特征重要性的全局与局部解释,发现特别关注医疗保险、年龄和性别等特征对死亡预测影响较大。本研究表明了使用 XAI 方法进行特征归因交叉验证的重要性。
Feb, 2023
通过对现有的解释性机器学习方法的综述,我们详细介绍了如何将常用的解释性机器学习方法应用于生存分析,以实现对模型决策或预测的理解。并且通过对加纳儿童 5 岁以下死亡率的实际数据的应用,展示了如何在实践中使用这些技术来促进对模型决策或预测的理解。
Mar, 2024
本文介绍了一种使用可解释人工智能(XAI)进行年龄预测的方法,重点关注了 EEG 信号和肺 X 光两种特定的模态。我们分享了年龄预测的预测模型,以促进对这些模态的模型进行解释的新技术的研究。
Mar, 2023
本文研究了在医疗保健领域中应用预测建模以提高保险公司生产力和效率的潜力,通过使用三种基于回归的集成机器学习模型(Extreme Gradient Boosting、梯度提升机和随机森林)对医疗保险费用进行预测,并采用可解释的人工智能方法来发现和解释影响医疗保险费用的关键因素。研究结果表明这些模型在预测上取得了可观的成果,其中 XGBoost 模型表现最佳,但计算资源消耗更高,而 RF 模型则在预测误差较小的同时消耗较少的计算资源。同时比较了两种可解释人工智能方法在识别影响保险费用的关键特征上的结果,发现 ICE 图能更详细地展示变量之间的相互作用,而 SHAP 分析则更具概览性。希望本研究的贡献能够帮助决策者、保险公司和潜在医疗保险购买者在选择适合其需求的政策时作出正确决策。
Nov, 2023
我们提出了一种新颖的生存分析流程,既能解释模型预测结果,又能与最先进的生存模型竞争。通过改进的生存堆叠模型将生存分析问题转化为分类问题,使用 ControlBurn 进行特征选择,并使用可解释的增强学习机器生成可解释的预测结果。我们使用大型电子健康记录数据库预测心力衰竭的风险,该流程实现了最先进的性能并提供了关于心力衰竭风险因素的有趣且新颖的见解。
Oct, 2023
利用机器学习方法,比较逻辑回归、支持向量机、决策树、随机森林、极端随机树、最近邻算法和自适应增强等七种分类模型来预测基于 METABRIC 数据集中 1904 名患者记录的 5 年乳腺癌生存率。研究结果表明,这些分类器可以准确预测样品的生存率,分别为 75.4%,74.7%,71.5%,75.5%,70.3%和 78%
Apr, 2023
该研究调查了树模型在长期死亡预测上的表现,并研究了两种近期引入的生物标志物对长期死亡的影响。研究采用来自中国台湾卫生福利部的 CCHIA 公开数据,以及从 139 例急性心肌梗死患者收集的医学和人口统计学数据,使用先进的集成树模型算法预测了 14 年内的全因死亡率,并发现添加生物标志物后算法的性能有所提高,可更好地为高风险个体确定治疗优先级。
Mar, 2024