利用生物标志物提高模型的可解释性和可靠性
机器学习方法在自动早期诊断阿尔茨海默病方面展示了巨大的潜力。本研究提出了一种结合可解释性增强机器(EBM)和基于深度学习的特征提取的框架,以高维成像数据为基础有效识别阿尔茨海默病及认知下降。该框架具有可解释性并通过提供每个特征的重要性来解释决策。研究结果表明,该框架在阿尔茨海默病和认知下降的分类中表现出优异的准确性和面积下曲线(AUC),且显著优于使用体积生物标志物或端到端卷积神经网络(CNN)的 EBM 模型。
Aug, 2023
该研究提出了一种通过引入辅助的预任务 (视觉生物标志分类) 来将特征学习与下游肺部超声任务分离的方法;通过为预测生物标志标签训练模型,可以学习到一种信息丰富、简洁和可解释的超声视频特征空间。这些特征可以被用于各种下游临床任务的专家模型中,这些任务包括诊断、肺部严重程度以及 S/F 比;与直接针对这些任务进行训练的端到端模型相比,这些任务特定的专家模型具有可比的准确度,同时成本显著降低。
Jun, 2022
通过引入透明度和后置解释性来增强深度学习模型的临床医学诊断适用性,提出了对比诊断,一个简单而有效的可解释诊断框架,实现了高可靠性的诊断并保持了高透明度和解释性。
Mar, 2024
在这项工作中,我们提出了一个针对乳腺 X 线摄影术的可解释机器学习框架,以预测病变性质并追踪放射科医生的推理过程,同时,我们的算法能够突出显示图像中与分类相关的部分,而其他方法则突出显示健康组织和干扰信息。
Mar, 2021
评估了 4 种生物标志物选择方法和 4 种不同的机器学习分类器,发现当允许 3 个和 10 个生物标志物时,现代方法在性能上优于以前报告的逻辑回归。在特异性固定为 0.9 的情况下,机器学习方法的灵敏度为 0.240(3 个生物标志物)和 0.520(10 个生物标志物),而标准逻辑回归的灵敏度为 0.000(3 个生物标志物)和 0.040(10 个生物标志物)。还注意到,在允许较少的生物标志物时,基于因果关系的生物标志物选择方法表现最好,而在允许更多生物标志物时,单变量特征选择方法表现最好。
May, 2024
提出了一种基于广义可加模型和概念学习的可解释模型,以增加用于评估肺结节恶性程度的现代计算机辅助诊断系统的透明度。该模型在确定恶性程度回归得分之外,检测了一组临床上显著的属性,并学习了肺结节属性与最终诊断决策以及其对决策的贡献之间的关联。通过与 LIDC-IDRI 数据集的实验,结果表明使用提出的模型获得的诊断结果与临床实践中观察到的相似模式一致,并展现了出色的分类和结节属性评分性能,凸显其在肺结节诊断中有效决策的潜力。
May, 2024
解释性对于增强人工智能在医学领域的可信度至关重要,然而,关于可解释模型对临床决策实际效益的讨论仍存在多个问题,包括缺乏评估框架、医生中心评估的限制以及基于 Transformer 模型的内置注意力机制作为可解释性技术的效用不明确。通过使用临床数据和磁共振成像来预测直肠癌淋巴结转移,我们使用多模态 Transformer 模型探索了通过最先进的技术可视化的注意力图能够与医生理解达成一致的程度,并通过预测概率方差和一致性量化评估模型的不确定性。研究发现,并未证实注意力图在增强模型可靠性方面的预期效益,表面的解释可能会误导医生依赖不确定的预测,因此应不过分高估当前解释性中的注意力机制,鉴定真正对临床决策有益的解释性机制仍然至关重要。
Dec, 2023
提出了一种计算机辅助诊断 (CAD) 系统,通过多参数图像特征组合来区分乳腺 MRI 检查中的癌性和非癌性病变,并使用规则提取算法以易于理解的图形可视化方式呈现病变分类结果。
Jun, 2016