FoolSDEdit:将您的编辑巧妙地引导至目标属性感知分布
提出了一种新的图像合成和编辑方法,Stochastic Differential Editing (SDEdit),基于扩散模型生成先验,通过随机微分方程(SDE)迭代去噪,从而使得合成的图像更真实,不需要任务特定的训练或反演,并且可以自然地实现实际和忠诚度之间的平衡
Aug, 2021
通过将选择性转移单元与编码器 - 解码器网络和生成对抗网络相结合,本文提出了一种属性编辑模型,可以有效地提高感知质量和属性操纵准确性。
Apr, 2019
我们提出了一种统一的概率形式用于扩散式图像编辑,其中潜变量以任务特定的方式进行编辑,并且通常偏离原始随机微分方程或常微分方程(SDE 或 ODE)引起的相应边际分布。代之以定义了一个相应的 SDE 或 ODE 进行编辑。我们在公式中证明了两个 SDE 之间的边际分布的 Kullback-Leibler 散度逐渐减小,而 ODE 的散度在时间趋近于零时保持不变,这表明了 SDE 在图像编辑中的优势。受此启发,我们针对各种任务(包括修复和图像到图像转换)提供了常用 ODE 基准的 SDE 对应项,其中 SDE 显示出一致而显著的改进。此外,我们还提出了基于 SDE 公式的简单而有效的点内容拖曳方法 SDE-Drag。我们创建了一个具有自然图像、艺术图像和 AI 生成图像的挑战性基准(称为 DragBench)进行评估。对 DragBench 的用户研究表明,SDE-Drag 在很大程度上胜过了我们的 ODE 基准、现有的基于扩散的方法以及著名的 DragGAN。我们的结果证明了 SDE 在图像编辑中的优势和多功能性,并推动了基于扩散的编辑方法的发展边界。
Nov, 2023
本研究旨在探索语义干扰对深度神经网络预测结果的影响,并通过提出的算法 SemanticAdv 来生成对各种 “对抗性” 目标偏离的扰动,从而欺骗深度神经网络。实验结果表明,具有控制语义干扰的对抗性例子不仅可以迷惑不同的学习任务,还可以对抗基于迁移的真实世界黑盒服务。
Jun, 2019
社交网络中图像操作的滥用带来了重大挑战。尤其令人担忧的方法是图像隐写术,使个人能够在数字图像中隐藏非法信息而不引起怀疑。本文致力于解决隐写分析模型在真实世界数据集上的实用性问题,通过几何对齐和源目标残差的分布匹配,构建了一种名为 TADA(透过数据自适应进行目标对齐)的新方法。该方法使用轻量级卷积网络,对齐图像残差的分布,有效解决了在隐写分析中的协变量偏移问题。
May, 2024
本文提出了一种名为 “LEAT” 的简单且有效的深度伪造干扰方法,该方法攻击独立的潜在编码过程,尽管给定目标属性,也可以生成扰动输出图像。此外,我们介绍了一种规范化渐变合奏策略,用于迭代渐变攻击,旨在同时攻击各种类型的深度伪造模型。实验结果表明,相对于先前的方法,我们的方法在现实中干扰深度伪造的成功率更高。
Jul, 2023
本文提出了 DisDiff(Disrupting Diffusion),一种破坏扩散模型输出的新型对抗攻击方法。通过运用 Cross-Attention Erasure 模块来显式 “擦除” 指示的注意力图,并分析扩散模型的采样过程对 PGD 攻击的影响,引入了一种新颖的 Merit Sampling Scheduler 来自适应地调节扰动更新振幅。在两个面部基准和两个常用的提示场景上,我们的 DisDiff 方法在 FDFR 分数上优于现有方法 12.75%,在 ISM 分数上优于现有方法 7.25%。
May, 2024
现有的属性编辑方法将语义属性视为二进制,导致每个属性只能进行一次编辑。然而,如眼镜、微笑或发型等属性展示了广泛的多样性。在本研究中,我们通过建模属性编辑的多维性质来提出 “多样属性编辑” 的任务,从而使用户能够为每个属性生成多个合理的编辑。我们利用预训练 GAN 的分离潜空间和训练一个去噪扩散概率模型(DDPM)来学习用于多样编辑的潜分布。具体而言,我们通过嵌入具有单个属性变化的图像对来训练 DDPM,从而得到能够实现多样属性编辑的潜子空间。在高度压缩的潜空间中应用扩散使我们能够在有限的计算资源内模拟丰富的编辑分布。通过广泛的定性和定量实验,我们展示了我们的方法在多样属性编辑方面的有效性。我们还展示了我们的方法在各种面部属性的三维编辑方面的结果。
Nov, 2023
本文提出了一种名为 SeDID 的新型检测方法,它利用了扩散模型的特殊属性,即确定性逆和确定性降噪计算误差,分别采用基于统计的 SeDID_Stat 和基于神经网络的 SeDID_NNs,实验证明 SeDID 在应用于扩散模型时优于现有方法,并对区分扩散模型生成的图像做出重要贡献,成为人工智能安全领域的重要一步。
Jul, 2023
本文提出了一种新颖的框架 Salient Spatially Transformed Attack (SSTA),用于生成不可察觉的对抗性样本(AE),通过在最关键区域上估计平滑的空间变换度量来提高 AE 的隐匿性,相比其他方法,SSTA 在保持 100% 攻击成功率的同时,有效提升了 AE 的隐匿性。
Dec, 2023