基于 Transformer 和循环一致生成对抗网络的视网膜图像修复
提出了一种基于 Transformer 的生成对抗网络(SRTransGAN)来进行图像超分辨率,通过使用编码器 - 解码器网络生成 2x 图像和 4x 图像,使用视觉 Transformer 设计判别器网络来对合成和真实高分辨率图像进行二分类,通过分析显著性地图来了解所提方法的学习能力,SRTransGAN 方法在 PSNR 和 SSIM 评分的平均值上优于现有方法 4.38%。
Dec, 2023
本文提出了一个基于 Vision Transformer (ViT) 的图像重构框架,利用 4 种优化技术和生成对抗网络(GANs)启发的对抗性损失函数,用于图像去噪和修复,实验表明该框架在结构相似性(SSIM)方面比 U-Net 模型高出超过 3.5%,对于这两个任务,提议的增强算法进一步展示了超过基准的 extasciitilde5%SSIM 的改进。
Jul, 2023
本研究提出了一种将血管分割网络集成到图像翻译任务中的方法,并通过扩展 CycleGAN 框架,将其插入到 UNet 视觉转换器生成器网络之前,以此来提高基于深度学习的多模式视网膜配准方法的训练数据集。我们重构了原始的恒等损失,以学习血管分割与真实图像之间的直接映射,并添加了分割损失项以确保伪图像与真实图像之间共享血管位置。实验结果表明,我们的方法外观逼真,且可以保留血管结构,从而为生成多模态训练数据进行图像配准奠定基础。
Jun, 2023
本文提出了一种通过生成对抗网络合成高质量的视网膜图像,以更有效地增加数据规模用于训练糖尿病性视网膜病变严重程度和病变分割模型的方法,并在多个数据集上进行了验证。
Dec, 2019
本文提出了一种新的医学影像生成对抗网络 (MI-GAN),可以用于合成视网膜图像及其分割掩模,以进行医学影像的监督分析,结果证明其在 STARE 数据集和 DRIVE 数据集上性能表现优异,达到了当时的最佳状态。
Oct, 2018
使用不同的卷积神经网络和 Transformer 方法以及广泛的数据增强技术,在三个医学图像数据集上比较了它们的表现,并将视觉 Transformer 模型与其他先进的预训练 CNN 网络进行了评估和比较,在分类不同的解剖结构、所见和异常方面,我们的 Transformer 模型优于或更有效,比 CNN 基于的方法有所改进,建议将其用作算法开发的新基准算法。
Apr, 2023
本文介绍了一种基于生成对抗网络的数据增强方法,可以有效地解决卷积神经网络在训练和测试数据之间存在领域差异时性能显著降低的问题。实验结果表明,该方法在领域自适应上表现出优异的性能。
Feb, 2020
提出了一种嵌入生成虹膜先验的 Transformer 模型(Gformer)来从复杂退化的虹膜图像中恢复,该模型通过 Transformer 块和虹膜生成对抗网络(GAN)预测虹膜先验并应用于虹膜恢复过程,实验证明该方法在虹膜识别性能上超出了现有方法。
Jun, 2024
该研究论文中介绍了深度生成模型在图像去模糊中的应用,通过利用生成对抗网络以及对抗学习框架,成功地生成了清晰度更高的图像,解决了图像模糊所带来的挑战,并在实际应用中产生了明显的效果。
Dec, 2023
本文研究在生成对抗网络中引入 Vision Transformers (ViTs) 架构,并通过引入创新的正则化技术(ViTGAN)解决现有正则化方法与自注意力交互不良的问题,实验表明 ViTGAN 在 CIFAR-10,CelebA 和 LSUN 卧室数据集上表现不亚于基于卷积神经网络的 StyleGAN2 的最新成果。
Jul, 2021