图像分类距离转换:一种新颖的可解释特征
本文提出了一种名为MedGAN的新框架,利用对抗生成网络(GANs)的方法对医学影像进行图像翻译,以此来实现PET-CT图像转换,矫正磁共振运动伪影和PET图像去噪等不同任务,感知分析和定量评估结果表明,MedGAN比其他现有的翻译方法表现更优秀。
Jun, 2018
使用循环一致生成对抗网络(CycleGANs)进行图像转换并生成人工合成结肠息肉图像,利用生成图像来增强数据集的训练效果,提高卷积神经网络(CNN)检测息肉的AUC值,该方法为解决组织病理学图像分类任务中数据不平衡问题提供了一种有效解决方案。
Oct, 2019
本研究旨在开发一种无标注的基于GAN的图像转换模型,将实验室拍摄的微生物图像转换为野外图像,以提高目标检测模型的泛化能力。我们使用合成的野外图像训练目标检测框架,并与实验室图像训练的目标检测框架进行比较,发现在F1-score和mAP方面有了高达68.1%和75.3%的改进。
Jun, 2023
通过使用自然语言概念,我们提出了一种建立强大而可解释的医学图像分类器的新范式,有效地解决了深度学习模型在医疗行业应用中学习虚假相关性而不是期望特征以及缺乏可解释性的问题。
Oct, 2023
在计算机视觉和医学图像领域的多模态系统中,语言监督的预训练被证明是从图像中提取语义有意义特征的有价值方法。然而,由于文本包含的信息有限,得到的特征受到了限制。在医学图像中,这一点尤为严重,因为放射科医生的书面结果侧重于特定观察,而相关图像-文本数据的稀缺性增加了挑战。本文通过在仅使用单模态医学图像数据进行预训练,引入了RAD-DINO,一种基于生物医学图像的编码器,其性能在各种基准测试中比最先进的基于生物医学语言的监督模型取得了相似或更好的表现。
Jan, 2024
通过咨询大型语言模型和医学专家,我们提出了一种新颖的VLP框架,将疾病描述分解为基本要素,利用对病理学可视表现的先前知识。通过整合Transformer模块,我们的方法将输入图像与疾病的多个要素进行对齐,生成以要素为中心的图像表示。通过整合每个要素的匹配,我们改善了图像与其相关疾病之间的兼容性。此外,我们还提出了一个面向要素的双头Transformer,用于处理已知和未知疾病,以优化综合检测效果。在七个数据集上进行实验证明,我们的方法在已见类别和新颖类别的AUC得分上分别超过最近的方法8.07%和11.23%。
Mar, 2024
通过简单的方法,我们实现了对最先进模型进行1像素平移的错误率降低到不到5%,同时只有1%的分类准确率下降。此方法还可以轻松调整以处理循环位移,而无需任何进一步的训练。
Apr, 2024
对医学图像翻译的评估指标进行研究,发现感知度指标通常与分割指标不相关,但是像素级 SWD 指标在细微的内模态翻译中可能有用,结果表明需要进一步研究有助于医学图像翻译的评估指标。
Apr, 2024
本研究针对医学图像分类中标注样本缺乏的问题,提出一种新颖的方法MedUnA,通过视觉-文本对齐实现无监督学习。研究表明,该方法在胸部X光、眼底和皮肤病变图像等多种数据中显著提高了分类准确性,展现出强大的应用潜力。
Sep, 2024