PID: 针对潜在扩散模型的独立提示数据保护
研究训练以潜在空间作为输入的 LDM 的方法,与传统的 Diffusion Models 相比,通过使用预训练的自动编码器将高维像素空间降为低维潜在空间,大大提高了训练效率,并使用隐私保护的方式对不同维度的注意力模型进行训练以减少可调参数,最终的实验结果表明该方法在生成高质量合成图像时表现突出。
May, 2023
我们提出了一种使用文本到图像潜在扩散模型作为通用先验来解决图像逆问题的新方法。我们引入了一种 prompt 调整方法,通过在运行反向扩散过程时动态优化文本嵌入,使得我们能够生成更符合扩散先验的图像。此外,我们提出了一种投影方法,以保持潜在变量在编码器的范围空间内的演化,从而有助于减少图像伪影问题。我们的综合方法 P2L 在各种任务(如超分辨率、去模糊和修复缺失部分)上优于基于图像和潜在扩散模型的逆问题求解器。
Oct, 2023
通过引入全面的理论框架并提出新的对抗性攻击方法,本文对基于 LDM 的对抗性攻击进行了深入研究,通过严格的实验,证明该方法优于现有攻击方法,并能在不同的基于 LDM 的少样本生成流程中进行泛化,成为在新一代强大生成模型中可为暴露于数据隐私和安全风险中的人们提供更强大和高效的保护工具。
Oct, 2023
Diffusion Partial Information Decomposition (DiffusionPID) is a novel technique applied to decompose the input text prompt, enabling a detailed examination of how individual tokens and their interactions shape the generated image in text-to-image diffusion models, addressing unanswered questions and biases analysis.
Jun, 2024
本研究针对生成扩散模型,发现攻击点在于编码器模块,并提出了 Score Distillation Sampling (SDS) 策略来保护图像并减少内存占用,同时通过最小化语义损失生成更自然的扰动,希望能够为恶意扩散模仿的防御做出贡献。
Oct, 2023
为了解决当前依赖互联网数据随机抓取并导致人类行为退化和偏见的文本导向图像生成方法在生成图像时存在的问题,我们提出了一种名为安全潜在扩散(SLD)的图像噪声过滤方法,从而通过包含不恰当的图像提示的实际图像 - 文本提示解决了这些问题。经过详尽的实证评估表明,SLD 能够在扩散过程中去除不恰当的图像部分,不需要额外的培训,并且对图像质量或文本对齐没有负面影响。
Nov, 2022
我们介绍了一份针对大型语言模型的汉语 Prompt 攻击数据集(CPAD),我们的测试结果显示,我们的 Prompt 对语言模型具有显著的危害,攻击成功率约为 70%。我们将发布 CPAD 以鼓励对 Prompt 攻击和防御的进一步研究。
Sep, 2023
通过 SmoothVLM 防御机制,本文针对视觉 - 语言模型中的补丁式对抗性提示注入进行研究,取得了成功的攻击率降低和上下文恢复率提高的平衡。
May, 2024
本文提出了一种基于 Prompt Tuning Inversion 的精确快速反演技术,用于文本驱动的图像编辑,能够在保留输入图像高准确度的同时进行灵活的编辑,实验证明该方法在 ImageNet 数据集上的表现优于现有技术。
May, 2023