基于机器学习的医院再入院健康差异预测、诊断和缓解模型
通过比较深度学习、广义线性模型、梯度提升机(GBM)和朴素贝叶斯等模型,我们发现 GBM 在不同人口统计学特征(年龄、性别、种族)下,以 84.3% 的 F1 分数和 82.2% 的准确率准确预测糖尿病患者的住院再入院情况。GBM 在预测中减少了性别和种族之间的差异,其假发现率(FDR) (6-7%) 和假阳性率(FPR) (5%) 较低,且各年龄组(40 岁以下和 40 岁以上患者)的 FDR(4%)保持稳定,表明其精确性和减少偏见的能力。通过展示多种模型的准确度和公平性指标,该研究强调了在医疗保健中谨慎选择机器学习模型以确保准确性和公正性的重要性,从而促进个性化医学并确保公平的机器学习算法,最终减少糖尿病患者不同背景中的不平等,并改善结果。
Mar, 2024
本研究提出了一种基于软件工程原理的人工智能框架,用于在保证医疗保健公平的同时识别和缓解数据和模型中的偏见和歧视,通过案例研究表明数据中的系统性偏见会导致模型预测中的偏差增大,并提出了机器学习方法来预防这种偏见。未来的研究目标是在实际的临床环境中测试和验证所提出的 ML 框架,以评估其在促进健康公平方面的影响。
May, 2023
该研究使用了 Diabetes 130-US Hospitals 数据集,利用各种传统机器学习模型(如 XGBoost、LightGBM、CatBoost、决策树和随机森林)进行分析和预测了糖尿病患者的再入院情况,并通过自主开发的 LSTM 神经网络进行对比。研究结果显示,LightGBM 是最佳的传统模型,而 XGBoost 位居第二,LSTM 模型在训练准确性较高的情况下存在过拟合问题。研究还使用了 SHAP 值提高了模型的解释性,并指出了实验结果中影响再入院预测的重要因素,如实验室过程数量和出院安排。该研究表明,在预测性医疗模型中,模型选择、验证和解释性是关键步骤,有助于医疗服务提供者设计干预措施,提高糖尿病患者的随访遵从性和管理效果。
Jun, 2024
本研究针对 30 天再入院问题,提出一种基于机器学习 ML 的临床数据分类流程,以及对基于敏感属性的子组进行公平性审计,发现了不同属性组之间的公平性问题,结果强调了需要更好的公平性和偏见缓解策略,并建议研究人员、政策制定者和从业人员合作解决人工智能系统中的偏见和公平问题。
Apr, 2023
提出一种基于物联网边缘 - 人工智能 - 区块链系统的糖尿病预测模型,通过比较实验结果表明,与逻辑回归和支持向量机等现有机器学习方法相比,该模型使用随机森林算法平均预测精度提高了 4.57%,但执行时间较长。
Nov, 2022
本文旨在探讨在临床精神病学中机器学习应用中公平性和偏见问题的探究以及解决策略,通过对临床精神卫生数据的预测,发现性别偏见的问题,并使用 AI Fairness 360 包中的重新加权和歧视感知正则化作为偏差消减策略,并探讨它们对模型性能的影响。这是第一次在真实的临床精神病学数据上应用偏见探索与消减的机器学习模型。
May, 2022
通过利用患者电子健康记录中有用的信息和新颖可解释的深度学习框架,该研究致力于预测意外住院并提高预测结果的解释性,从而减少医院成本和改善患者健康。
Oct, 2023
通过使用 CART 算法,本研究提出了一种创新的框架,用于检测医疗人工智能决策支持系统中的算法偏见。通过一系列合成数据实验和格拉迪纪念医院的电子病历实验,我们验证了该方法的准确性和实用性,进一步证明了它在临床环境中作为确保公平和公正的关键工具。
Dec, 2023
该论文提出了一种基于智能健康护理系统的、用于预测 2 型糖尿病的机器学习模型 HealthEdge,并使用真实数据集进行了两种机器学习算法(随机森林和逻辑回归)之间的比较分析,结果表明 RF 预测糖尿病的准确率比 LR 平均高 6%。
Jan, 2023