将因果和非因果解释相结合,生成胶囊内镜下疾病进展
通过利用扩散模型(DM)生成多样化的胶囊内窥镜(WCE)图像,我们的研究采用视觉检查和视觉图灵测试评估方法,证明了该方法在生成逼真且多样化的 WCE 图像方面的有效性。
Nov, 2023
通过使用领域先验知识作为先决条件来学习更强大和可推广的表示,我们实验表明,域优先可以通过代理标签的方式使表示受益,从而显着减少标记要求,同时仍使完全无监督但病理感知学习成为可能,建立了病理分类和跨数据集推广的新基准。
Jun, 2022
该文提出了一种名为 “可解释的几何深度网络” 的端到端学习方法,用于在高维数据中实现精细的可解释性,例如神经成像和神经科学研究。该方法采用学习解释性因素来增强鉴别性表示提取,以实现可解释的预测和分类结果。
Jan, 2023
内窥镜在识别胃肠道的潜在异常方面起着重要作用。最近,深度学习,特别是卷积神经网络(CNNs),在胃肠道内窥镜图像分析方面报道了显著的优势。然而,现有的模型大多关注性能的提高,缺乏开发在资源有限环境中运行的轻量级模型的重点。我们通过三种基于知识蒸馏学习框架进行研究,并引入了一种新颖的基于多头注意力的特征融合机制来支持基于关系的学习。在两个广泛使用的公共数据集 KVASIR-V2 和 Hyper-KVASIR 上进行了广泛的评估,实验结果表明了我们提出的基于关系的框架在实现资源有限环境中运行的改进轻量级模型(仅有 51.8k 可训练参数)方面的优点。
Aug, 2023
本文针对深度学习模型的可解释性分析依赖因素作出第一次研究,提出 Explanation Dependency Decomposition 方法,并使用解释验证预测结果。
Dec, 2020
本篇论文提出一种新颖的扩展方法,将因果关系显式编码进生成输入实例的数据以解释增加信任度和帮助用户评估解释质量的 XAI 方法,并通过实验表明该方法对于拟合黑匣子和解释稳定性均达到了比初始方法更优越的表现。
Dec, 2022
通过解决微小病变和背景干扰等挑战,以及利用放大增强器生成放大后的 WCE 图像从而学习鲁棒表示,我们提出了一种用于 WCE 图像分类的去耦合监督对比学习方法。训练一个线性分类器来使用这些表示,在仅 10 个 epoch 内取得了惊人的 92.01%的整体准确率,超过了前一最先进方法 0.72%,基于两个公开可访问的 WCE 数据集。
Jan, 2024
通过构建深度神经网络中的因果模型并使用自动编码器提取关键概念作为变量,我们开发了一种解释神经网络输出预测的方法,并使用该因果模型识别和可视化对最终分类具有显着因果影响的特征。
Feb, 2018
本研究提出了一种基于专家知识的临床概念或中间特征作为解释单元的自我解释深度学习框架,并在公开的电子健康记录数据集上进行了实验。实验结果表明,该模型的解释性组件不会影响预测性能,并且模型生成的解释可以为医生提供了解病人死亡原因的洞见。
Oct, 2021