数字病理学中可解释图表示的研究
本文提出了基于生物实体的图形处理和图形解释方法,以便通过使用可量化的统计指标衡量层次相关传播、基于梯度的显著性和图形修剪方法三种图形解释器,让组织病理学家容易理解。实验结果在大量的乳腺癌样本上证明了这些方法的可行性和有效性。
Nov, 2020
应对医疗领域深度学习的 “黑箱” 挑战,我们将 GCExplainer(一种自动概念发现解决方案)与 Logic Explained Networks 结合起来,为图神经网络提供全局解释。我们通过使用普遍适用的图构建和分类流程(包括 HoVer-Net 的全景分割和图卷积网络的癌症预测)来展示这一点。通过在乳腺癌的 H&E 切片上训练,我们展示了为临床医生提供可解释和可信赖的人工智能工具的有希望结果。
Dec, 2023
我们开发了 KS-GNNExplainer,这是第一个利用现有实例级方法以有效方式提供更具信息和可靠的可解释输出的实例级图神经网络解释器,从而使得基于图形的组织病理学图像分析可以显著受益。我们的实验表明,该解释器能够成为全局模式提取器,从而克服了当前实例级方法在该领域中的基本局限性。
Apr, 2023
本文介绍了解释方法在数字病理学中的应用,以生成热图来解决深度学习方法在数字组织病理学分析中遇到的常见问题,包括对组织病理学数据固有的偏见。通过像素级热图的方法,我们能够精确诊断并帮助发现和消除数据中的偏见,证明解释方法是数字病理学应用开发和部署阶段中的有益工具。
Aug, 2019
本研究提出一种基于多层次组成的组织表征模型来对癌症进行诊断、预测、治疗,并采用基于图的神经网络来学习和识别多层次组成的多组织结构。我们还介绍了 BReAst 癌症亚型识别数据集,并通过比较研究和消融研究证实了我们的方法优于其他方法和病理学家。
Feb, 2021
本研究提出了一种基于整张切片图像的图像学习算法,利用基于位置的嵌入和图形注意机制,采用样条卷积神经网络进行结点位置嵌入,用于肾癌和前列腺癌的分级诊断,并使用渐变解释方法生成突出显着的区域地图,从而使该方法可解释性更好地识别 WSI 中的癌症区域。
Jun, 2023
对 42 篇研究进行了系统综述,旨在讨论深度学习模型如何支持癌症生物学的推理,并重点关注多组学分析。我们介绍了一种称为生物中心可解释性的概念,并根据其分类方法讨论了在这些模型中整合领域先验知识的表征方法。分析表明,编码先验知识和改进解释性之间存在趋同性,这是深度学习模型形式化生物解释性和发展不那么特定于问题或应用的方法的重要一步。
Jul, 2022
该论文研究了如何利用深度学习神经网络中学习到的内在特征,利用概念分析方法和归纳逻辑编程理论,构建基于符号的模型,实现黑盒机器学习的可解释性,体现其透明度和可靠性的要求。
May, 2021