MM-Diffusion:学习多模态扩散模型用于联合音频和视频生成
通过利用预训练的单模态音频和视频生成模型,我们旨在构建一个计算成本最小化的音频 - 视频生成模型。为了实现这一目标,我们提出了一种新方法,通过引导每个单模态模型来协作生成跨模态对齐的样本。我们在几个基准数据集上的实证评估表明,我们的方法改进了单模态的准确度和多模态的对齐,同时具有相对较少的参数。
May, 2024
我们介绍了一种多模态扩散模型,专为视频和音频的双向条件生成而设计。通过引入联合对比训练损失来增强视听事件的同步,我们认识到在多模态生成任务中准确对齐视频和音频事件的重要性。我们的研究方法包括对多个数据集进行全面实验,以全面评估我们所提出的模型的有效性。从各个角度进行了生成质量和对齐性能的评估,包括客观和主观指标。我们的研究结果表明,所提出的模型优于基线,证实了它的有效性和效率。特别地,对比损失的引入改善了音视频对齐,特别是在高相关性的视频到音频生成任务中。这些结果表明我们所提出的模型具有改善多模态生成的质量和对齐性的潜力,从而促进了视频和音频条件生成系统的发展。
Dec, 2023
本研究提出了一个基于优化的跨视觉 - 音频和联合视觉 - 音频生成框架,通过与预训练的 ImageBind 模型共享潜在表示空间,实现了优越的联合视频 - 音频生成、视觉导向音频生成和音频导向视觉生成任务的性能。
Feb, 2024
通过使用新的训练方法和变量扩散时间步长,我们提出了一种基于转换器的音视频潜在扩散模型,可在任务不可知的情况下进行训练,并在推理过程中实现各种音视频生成任务,克服基线模型在生成条件输入上的时间和感知上的不连贯样本的局限性。
May, 2024
本文研究了使用扩散模型生成图片以满足多种限制条件的问题。我们提出了一种基于去噪扩散概率模型的解决方案,该方法能够统一多个扩散模型,并引入一种新的可靠性参数,使得可以在采样时仅使用不同数据集上训练的现成模型来指导并满足多种限制条件的任务。该方法在多种标准的多模态任务上表现出了有效性。
Dec, 2022
本研究提出了一种基于扩散架构的音视频显著性预测方法(DiffSal),使用音频和视频作为条件,通过 Saliency-UNet 网络进行渐进细化来解决显著性图的生成问题,并在六个具有挑战性的音视频基准任务中取得了优秀的性能。
Mar, 2024
本研究通过提出扩展图像扩散结构的扩散模型,使得可以自然地对图像和视频数据进行联合训练以生成高保真度的时空连续的视频,并引入一种更好的有条件采样技术,得到了在文本条件视频生成任务及视频预测和无条件视频生成方面的最先进结果。
Apr, 2022
本文提出了一种名为 Collaborative Diffusion 的模型,在不需要重新训练的情况下,利用多种单一模态扩展固有的单一模态扩散模型以实现多模态人脸生成和编辑。
Apr, 2023
本文介绍了一种新的 T2V 框架,通过引入音频信号来控制时间动态,从而使传统的 T2I 扩散生成可以与音频对齐的视频。我们提出了基于音频的区域编辑和信号平滑方法,以在视频综合的时间灵活性和一致性之间取得良好平衡,并通过实验验证了方法的有效性,并提出了实际应用。
May, 2023
学习了音频和视觉信号的同步已经被利用来学习更丰富的音频 - 视觉表示,最新的研究结合了扩散模型与音频 - 视频预训练框架 MAViL,通过使用掩蔽编码和对比学习来实现音频谱图和视频帧的联合重构,并通过训练效率方法的结合降低了 32%的浮点预训练操作数量 (FLOPS) 和 18%的预训练时间,与 MAViL 相比,在下游音频分类任务上没有损害模型的性能。
Oct, 2023