Apr, 2025
将可逆UNet与可逆注意力模块结合以实现内存高效的扩散模型
Bringing together invertible UNets with invertible attention modules for
memory-efficient diffusion models
TL;DR本研究解决了当前扩散模型在医学图像合成中对计算资源的高需求问题。通过提出一种结合可逆UNet架构和可逆注意力模块的新型架构,实现了在单个GPU上内存高效的训练,并使去噪扩散模型的内存使用与数据集的维度无关,同时降低了训练期间的能耗。本模型在3D BraTS2020数据集上展示了高达15%的内存消耗减少,并且在保持图像质量的情况下与最新技术水平相当。