内存触发器:通过词级重复揭示文本到图像生成模型中的记忆化
对文本引导的图像生成模型进行了记忆化分析,提出三个必要条件进行定量分析,并利用反演技术验证目标图像的安全性,同时对稳定扩散模型进行了有效性实验证明。
May, 2024
多模态机器学习中的文本到图像模型,如 Stable Diffusion 和 DALL-E 3,以将文本转化为详细图像而变得重要。本文介绍了一种专门针对文本到图像模型的记忆定义,并根据用户期望将其分为三种不同类型。我们对意图记忆和非意图记忆之间的微妙差异进行了详细研究,并强调在模型输出的生成质量和用户隐私之间平衡的重要性。通过使用 Stable Diffusion 模型,我们提供了示例来验证我们的记忆定义并阐明其应用。
Dec, 2023
大规模的文本到图像扩散模型在从文本输入中生成高质量图像方面表现出色,然而研究表明它们倾向于记忆和复制训练数据,引起了版权侵犯和隐私问题。本文针对扩散模型中的记忆问题,通过剪枝特定子空间的权重提出了一种后处理方法,避免了破坏训练或推理过程,从而展示了一个实用且全面的解决记忆问题的新途径。同时展示了经剪枝的模型对于训练数据提取攻击的鲁棒性,揭示了新的解决记忆问题的可能性。
Jun, 2024
研究论文概述:最近的文本到图像扩散模型在生成高质量图像方面展示了显著的能力,但是越来越多的研究表明这些模型从训练数据中记忆并复制图像,引发了对潜在版权侵权和隐私风险的巨大担忧。在这项研究中,我们通过检查交叉注意力机制与记忆现象的关系,提供了一种新的视角来理解这一现象。我们揭示了在记忆过程中,交叉注意力倾向于不成比例地关注特定标记的嵌入。扩散模型对这些标记嵌入进行了过度拟合,记住了相应的训练图像。为了阐明这一现象,我们进一步确定并讨论了与记忆相关的十分内在发现的交叉注意力。基于这些见解,我们提出了一种创新方法来检测和减轻扩散模型中的记忆现象。我们提出的方法的优势是在保留生成图像质量的同时不会影响这些模型的训练或推理过程的速度。
Mar, 2024
医学图像领域的生成潜在扩散模型具有广泛的应用,其中一个值得注意的应用是通过提出合成数据作为真实患者数据的替代品来实现隐私保护的开放数据共享。然而,这些模型容易遭受患者数据记忆化的问题,从而生成患者数据的副本而非新的合成样本,从而损害了保护患者数据的目的,甚至可能导致患者重新识别。针对这个问题的重要性,令人惊讶的是,在医学图像界中对此问题关注相对较少。为此,我们评估了用于医学图像合成的潜在扩散模型的记忆化问题。我们在 CT、MR 和 X 射线数据集上训练了 2D 和 3D 潜在扩散模型,用于合成数据生成。之后,我们通过自监督模型检查了训练数据记忆化的程度,并进一步研究了可能导致记忆化的各种因素,通过在不同设置下训练模型。我们发现,在所有数据集中,训练数据中有相当大的记忆化现象,分别在 CT、MRI 和 X 射线数据集中分别达到 41.7%、19.6% 和 32.6%。进一步的分析表明,增加训练数据量和使用数据增强可以减少记忆化,而过度训练会增加记忆化。总的来说,我们的结果表明在共享开放数据之前应该进行记忆化受影响的合成数据评估。
Feb, 2024
通过向受保护的数据集中注入记忆注入,我们提出了一种检测未经授权的数据使用的方法,分析模型是否对注入内容进行了记忆,从而可以检测非法使用未经授权数据的情况。
Jul, 2023
扩散模型在图像生成、解决逆问题和文本到图像合成等各种应用中展示了领先的性能。我们揭示了与大多数其他生成模型截然不同的 “一致模型可重现性” 现象,通过广泛的实验表明,扩散模型在相同初始噪声输入和确定性求解器采样时,倾向于产生几乎相同的输出内容。此模型可重现性在不同的训练环境下均成立,包括记忆化和泛化模式。进一步的分析提供了对 “记忆化模式” 中模型可重现性的理论解释,并揭示此有价值的特性适用于许多扩散模型的变种。更深入理解此现象有可能产生基于扩散模型的更可解释和可控的数据生成过程。
Oct, 2023
扩散模型是近年来引起重要研究兴趣的高质量样本生成方法,我们的研究旨在深入理解扩散模型的记忆行为,包括有效模型记忆的定义与影响因素的量化分析。我们的实证研究发现数据分布、模型配置和训练过程等因素对记忆行为有重要影响,并且在扩散模型中,将训练数据与随机标签进行关联显著触发记忆行为。这对扩散模型的使用者具有实际意义,并为深度生成模型的理论研究提供了线索。
Oct, 2023