零样本视频恢复与增强:基于预训练图像扩散模型
本研究介绍了一种使用预训练图像恢复扩散模型进行零样本视频修复的方法,该方法通过分层标记合并策略和混合对应机制实现关键帧和局部帧的修复,并在各种具有挑战性的数据集上证明了其在零样本视频修复中的顶级性能和对各种极端降级(8 倍超分辨率和高标准差视频降噪)的一般化能力,可以与任何 2D 恢复扩散模型配合使用,为视频增强任务提供了一种多功能且强大的工具。
Jul, 2024
我们引入了第一个基于预训练扩散模型的零样本视频语义分割方法,该方法在各种视频语义分割基准测试中明显优于现有的零样本图像语义分割方法,并且在 VSPW 数据集上与有监督的视频语义分割方法不相上下,尽管它没有经过显式的 VSS 训练。
May, 2024
本文提出了一种零样式迁移的扩散模型,该零样式迁移使用零额外训练或辅助网络的对比损失来处理内容保留问题,并在图像样式转换和图像到图像翻译中取得了优于现有方法的效果。
Mar, 2023
本研究提出了一种基于零样本文本引导的视频到视频转换框架来适应图像模型到视频的应用,在形状、纹理和颜色上强制执行分层的跨帧约束,实现低成本下的全局样式和局部纹理的时空一致性。
Jun, 2023
本文提出了一种 ReDiffuser 图片修复模型,该模型使用自动生成的描述来完成图片编辑,利用再生学习和交叉注意力向导实现图片对形状的一致性保留,并引入一种协作更新策略,提高图片修复的质量和一致性。实验结果表明,该方法在真实和合成图片编辑方面优于现有方法。
May, 2023
提出了 TI2V-Zero:一种无需优化或微调的零样本方法,通过使用预训练的文本到视频扩散模型,使其能够在给定图像的条件下生成实际视频。该方法使用 “重复滑动” 策略来引导视频生成,并提供了一种保持视觉细节的新合成帧初始化和重新采样技术,从而实现视频的逐帧合成。TI2V-Zero 在领域特定和开放领域数据集上的实验证明了其优越性能,并且能够无缝扩展到其他任务和支持长视频生成。
Apr, 2024
零样本反演过程 (ZIP) 是一个框架,将生成的视觉参考和文本引导注入预训练的去噪扩散模型的语义潜空间中,仅使用一个小型神经网络,ZIP 在文本提示的直观控制下产生多样的内容和属性,并对真实图像上的域内和域外属性操作展现了显著的鲁棒性。与最先进的方法相比,ZIP 在提供逼真的编辑效果的同时,生成了同等质量的图像。
Aug, 2023
图像修复是一个具有挑战性的任务,在近期,扩散模型在图像的生成上取得了显著的进展,但关于扩散模型在图像修复中的应用却鲜有综合且有启发性的研究,本文首次对基于扩散模型的图像修复方法进行全面的综述与评估,并提出了未来研究的五个潜在和具有挑战性的方向。
Aug, 2023
通过引入自然性导向和语义感知优化机制 DiffLoss,本文旨在改善图像恢复领域中的颜色和纹理失真问题,并提高图像的语义感知恢复能力,以实现图像恢复任务和高级识别任务的连接。
Jun, 2024
使用预训练的图像修复扩散模型,通过替换自注意力模块以创建帧级依赖关系,我们提出了一种编辑视频的方法,以确保编辑信息在所有视频帧中保持一致,从而在对象重定向、对象替换和对象移除等多个视频编辑任务中展示了该策略的卓越性能。
Jun, 2024