DeepCoDA:用于组合健康数据的个性化解释性
本文介绍了一种名为 “可解释的 Mimic 学习” 的新型知识蒸馏方法,用于学习解释性的表型特征,以进行强大的预测,同时模仿深度学习模型,以解决临床决策中关键的模型可解释性问题。在临床时间序列数据集上进行的详尽实验表明,我们的方法获得了与深度学习模型相似或更好的性能,且为临床决策提供了可解释的表型特征。
Dec, 2015
在医疗保健领域,追求使用可解释的算法来协助医疗专业人员在多种决策场景中。针对预测性、描述性和相关性(PDR)框架,将可解释机器学习定义为一个能够明确且简单地确定数据中所含或模型所学关系对其功能和模型分类至关重要的机器学习模型,并根据后续操作和基于模型进行分类,用于训练后获取可解释性或内置于算法设计中。我们概述了八种可供此类目的使用的后续操作和基于模型的算法。
Jun, 2024
该研究论文概述了理解机器学习模型的需求,解释了分类理解方法并提供了在不同医疗保健领域实际应用机器学习可解释性的例子,强调开发算法解决高风险医疗问题的重要性。
Feb, 2020
探讨了在医疗保健领域中机器学习的应用。通过在 MIMIC-III 临床笔记中预测死亡率的任务中,我们展示了各种可完全解释的方法和模型不可知后续属性的可视化技术,同时提供了评估解释质量的通用方法。
Jul, 2021
本文介绍了一种基于原型的可解释模型,在应对特定医学数据集的问题时,不仅能够具备可解释性,还能保持高性能。通过对一个合成和两个真实医学数据集的详细分析,这些模型得以证明在处理医学数据方面的有效性,可成为医学诊断提供支持。
Jun, 2022
对 42 篇研究进行了系统综述,旨在讨论深度学习模型如何支持癌症生物学的推理,并重点关注多组学分析。我们介绍了一种称为生物中心可解释性的概念,并根据其分类方法讨论了在这些模型中整合领域先验知识的表征方法。分析表明,编码先验知识和改进解释性之间存在趋同性,这是深度学习模型形式化生物解释性和发展不那么特定于问题或应用的方法的重要一步。
Jul, 2022
本篇论文提出了一种基于置信度校准的学习方法,能够同时满足模型可靠性和可解释性,通过皮肤镜图像的病变分类问题验证了该方法的有效性,同时还提出了一种全面评估模型可靠性的机制 - Reliability Plots。
Apr, 2020
该项研究提出了一种 deep learning-based 的健康状态表示学习模型 AdaCare,能够在多个时间尺度上捕捉生物标志物的长期和短期变化,强化指示健康状态的特征,并提供有效的可解释性和高预测准确率,实验证明 AdaCare 胜过同类方法,通过临床专家验证的可解释性也很有效。
Nov, 2019
本研究提出了一种新型的临床决策支持系统,结合了一组规则和机器学习算法,提供了全局和局部的可解释性,并使用机器学习算法预测每个规则在特定患者的正确性可能性,以更好地提高预测性能,并提高个性化解释能力,这些元素的结合可以帮助医生更好地评估患者的情况,提高医生的决策能力。
Jul, 2021
本文提出了一种新的深度学习框架,可以在 instance 和 cluster 级别预测可解释的聚类分配,并在基因组序列、医疗记录或图像等数据上验证了该方法的可靠性和可解释性。
Jun, 2023