理解孕妇和胎儿结果的风险因素的可解释预测模型
通过使用替代交叉功能选择、集成功能和模型配置技术等新方法,改进了可解释性较强的 EBM 模型,以提高其可靠性和解释性,并在三个基准数据集上进行了验证。
Jul, 2023
机器学习方法在自动早期诊断阿尔茨海默病方面展示了巨大的潜力。本研究提出了一种结合可解释性增强机器(EBM)和基于深度学习的特征提取的框架,以高维成像数据为基础有效识别阿尔茨海默病及认知下降。该框架具有可解释性并通过提供每个特征的重要性来解释决策。研究结果表明,该框架在阿尔茨海默病和认知下降的分类中表现出优异的准确性和面积下曲线(AUC),且显著优于使用体积生物标志物或端到端卷积神经网络(CNN)的 EBM 模型。
Aug, 2023
该研究展示了机器学习系统在通过风险评分预测患者不良事件方面的巨大潜力,但未来介入干预政策会对风险评分产生影响,所以在此提出了一种联合模型来更加明确地传达有关未来干预的假设。通过将典型风险评分与未来干预概率评分相结合,可以提供更可解释的临床预测。
Jul, 2022
针对计算机视觉中的不透明模型解释困难的问题,同时受到科学研究对可解释的模型的需求,该研究提出了将易于解释的 EBM 模型扩展至科学图像领域的方法,并通过 Gabor 小波变换对图像数据进行处理,改进了当前图像可解释性方法。
May, 2023
本文介绍了一种基于原型的可解释模型,在应对特定医学数据集的问题时,不仅能够具备可解释性,还能保持高性能。通过对一个合成和两个真实医学数据集的详细分析,这些模型得以证明在处理医学数据方面的有效性,可成为医学诊断提供支持。
Jun, 2022
通过评估一种高效的可加性模型,本研究在三个热门混合交通数据集上对交通预测进行了评估,结果显示该模型在预测行人目的地方面表现竞争力,对以车辆为主的数据集则提供较为适度的预测,而透明的训练模型使我们能够分析特征的重要性和相互作用,并提供预测解释的质量性示例。
Feb, 2024
通过将当前最先进的可解释性方法应用于电子病历数据的临床决策支持算法,分析这些因素之间的一致性,并从临床和技术角度讨论确定的差异的原因,进而讨论实现可信赖的临床决策支持的重要因素。
Nov, 2023
本文介绍了一种在解决缺失数据问题时使用可解释机器学习的方法。将高精度的玻璃盒可解释性增强机(EBMs)用于缺失值处理,可帮助用户更好地了解缺失机制并检测可能引入的风险。实验表明了该方法在处理真实医疗数据集时的有效性。
Apr, 2023
使用最小绝对收缩与选择算子(LASSO)的简单解决方案可以通过重新加权各个模型项并删除不相关的项来引入稀疏性,从而使易解释的增强机模型在高维度环境中保持透明度和相对较快的评分时间。
Nov, 2023
AI 在医疗应用中的最新进展显示出在诊断和疾病预测方面超越人类表现的巨大潜力。然而,随着 AI 模型的复杂性日益增加,人们对其不透明性、潜在偏见和解释性的需求也越来越担忧。为了确保 AI 系统的信任和可靠性,特别是在临床风险预测模型中,解释性变得至关重要。这篇综述中,我们讨论了这些概念之间的关系,因为它们经常一起或可互换使用。该综述还讨论了最近在发展用于临床风险预测的可解释模型方面的进展,强调了定量和临床评估和验证在临床实践中的多个常见模态上的重要性。它强调了外部验证和多种解释性方法的结合以增强信任和公平性的必要性。采用严格的测试,例如使用具有已知生成因素的合成数据集,可以进一步提高解释性方法的可靠性。开放访问和代码共享资源对于透明性和可重现性至关重要,以促进可解释性研究的增长和可信度。尽管存在挑战,但将解释性纳入临床风险预测的端到端方法,包括从临床医生到开发人员的利益相关者,对于取得成功至关重要。
Aug, 2023