使用 B-LoRA 实现隐式样式内容分离
通过解码为中心的视角,本研究提出了两种无需训练的方法:LoRA Switch 和 LoRA Composite,分别通过在去噪步骤中交替使用不同的 LoRA 和同时整合所有的 LoRA,以更好地指导图像合成,从而提高了综合性能,在组合中增加 LoRA 的数量时尤为明显。
Feb, 2024
通过更新多个 LoRA 模型的注意力图并利用它们创建语义掩码来解决在图像生成中多个概念的平滑融合问题,并成功地合并多个概念或样式。
Mar, 2024
通过低秩适配(LoRA)方法,提出了 ZipLoRA,一种能够高效且在主题和风格保真度方面有显著改进的独立训练风格和主题 LoRA 的合并方法。
Nov, 2023
个性化和风格化在文字到图像的任务中都是指导预训练扩散模型分析用户引入的新概念,并将其融入预期的风格。我们提出了基于块级低秩适应(LoRA)的精细调整方法,用于不同块的 SD 进行细粒度的调整,能够生成忠实于输入提示和目标身份且具有所需风格的图像。广泛实验证明了所提出方法的有效性。
Mar, 2024
该研究提出了一种无需 LoRA 的方法,用于风格化图像生成,通过使用文本提示和风格参考图像作为输入,以单次传递生成输出图像。使用统一模型,该方法能够适应多种风格,但面临两个挑战:1)提示在生成内容上失去可控性,2)输出图像同时继承了风格参考图像的语义和风格特征,从而损害其内容的保真度。为解决这些挑战,作者提出了 StyleAdapter,该模型由两个组件组成:双路径交叉注意力模块(TPCA)和三个解耦策略。这些组件使模型能够分别处理提示和风格参考特征,并减少风格参考中语义和风格信息之间的强耦合。StyleAdapter 能够以单次传递生成与提示内容匹配且采用参考的风格的高质量图像,相比以前的方法更灵活高效。实验证明了我们方法的优越性。
Sep, 2023
基于双层优化的 BiLoRA 方法在降低过拟合风险的同时,显著优于 LoRA 和其他微调方法,并具有相似数量的可训练参数。
Mar, 2024
DiffStyler 是一种新方法,通过利用基于 LoRA 的文本到图像扩散模型来实现高效且精确的任意图像风格转移,该方法结合了跨 LoRA 特征和注意注入的策略,旨在在内容保持和风格整合之间取得更和谐的平衡。
Mar, 2024
该研究介绍了一种创新方法 Bi-LORA,利用视觉语言模型与低秩适应技术相结合,将二分类问题重新构建为图像字幕任务,以提高对未知模型生成图像的合成图像检测精度。实验证明该方法在检测合成图像上具有 93.41% 的平均准确率。
Apr, 2024
自定义生成技术在不同背景下合成特定概念的技术已经取得了显著进展。多概念自定义是该领域内的一项具有挑战性的任务。现有方法往往依赖于训练多个低秩适应矩阵(LoRA)的融合矩阵,将各种概念合并到单个图像中。然而,我们发现这种直接方法面临两个主要挑战:1)概念混淆,即模型无法保留独特的个体特征,2)概念消失,即模型无法生成预期的主题。为了解决这些问题,我们引入了一种名为 LoRA-Composer 的无需训练的框架,用于无缝集成多个 LoRA,从而增强生成图像中不同概念之间的和谐。LoRA-Composer 通过概念注入约束来解决概念消失问题,通过扩展交叉注意机制增强概念可见性。为了对抗概念混淆,引入了概念隔离约束,对自注意力计算进行了改进。此外,提出了潜在重新初始化方法来有效激发指定区域内的特定概念潜在性。我们的广泛测试显示,与标准基线方法相比,LoRA-Composer 的性能有明显的提升,特别是在消除基于图像的条件(如边缘检测或姿势估计)时。代码发布在此 https URL
Mar, 2024
综合奇异值分解(Singular Value Decomposition)与低秩适应(Low-Rank Adaptation)参数更新策略,提高图像生成模型的微调效率和输出质量,改善模型的泛化能力和创造性灵活性,同时在受限资源条件下保持良好性能。
May, 2024