图像超分辨率与文本提示扩散
本研究提出了利用退化对齐的语言提示来实现准确、精细和高保真度的图像恢复,通过图像恢复提示对图像的退化程度进行自动辨别,同时结合预训练的多模态大型语言模型获取与人类感知紧密相关的高级语义先验,综合比较分析表明,该方法在图像感知质量上达到了新的最先进水平,尤其是在基于无参考度量的真实场景中。
Jun, 2024
通过训练一个 degradation-aware 提取器,我们提出了一种针对生成式真实世界图像超分辨率的语义感知方法,以更好地保留语义保真度,同时将低分辨率图像整合到初始采样噪声中以减少过多的随机细节生成,实验结果表明我们的方法可以重现更现实的图像细节并更好地保持语义。
Nov, 2023
本文介绍了一种新的方法,利用预先训练的文本到图像扩散模型中所包含的先前知识来实现盲超分辨率,并通过引入可控特征包装模块和渐进聚合采样策略来克服扩散模型固定尺寸的限制,实现对任何大小分辨率的适应,并在综合评估中展示了该方法在超分辨率领域的优越性。
May, 2023
通过 prompt 学习,我们提出了一种学习扩散模型适当文本描述的框架,通过利用预训练扩散模型导出的质量指导和语义指导,我们的方法可以有效地学习提示,从而提高输入文本和生成图像之间的匹配。通过广泛的实验和分析,验证了所提方法的有效性。
Jan, 2024
本研究提出了一种有效的基于文本提示的图像修复模型,通过任务特定的 BERT 进行精确理解用户指令并生成文本提示,设计了深度多头转置注意力和门控卷积模块来弥合文本提示和视觉特征之间的差距,创新地将语义提示引入到低层视觉域中,实验证明该模型在公共去噪、去雾和去雨数据集上获得了显著优越的性能,能够准确识别和去除图像的退化,无需增加模型的复杂性。
Dec, 2023
通过级联扩散控制模型和多重注意机制,本研究提出了一种图像超分辨率方法,其目标是从降质版本中生成高质量、清晰的图像。研究结果表明该方法在提高图像还原的准确性和真实性方面非常有效和优越。
Mar, 2024
此篇论文提出了一种名为 Prompt-Free Diffusion 的图像合成框架,该框架基于仅视觉输入,不需要文本提示就能生成新图像,其核心架构是语义上下文编码器 (SeeCoder),该框架在图像合成方面表现出色,不仅在基于示例的合成方法方面优于先前的方法,在遵循最佳实践的提示下,也能与最先进的 T2I 模型相媲美。
May, 2023
该研究探讨了如何改进文本生成图像的模型的问题,提出了一种称为 Semantic Understanding and Reasoning adapter (SUR-adapter) 的参数高效微调方法,以提高短文本输入的语义理解和常识推理能力,进而用提高的文本语义表征生成高质量图像。
May, 2023