预训练扩散概率模型中的无监督表征学习
本研究探索使用可扩散概率模型作为自编码器的解码器,让输入图像生成一个可以被意义化和解码的编码向量,该编码向量分为两部分:第一部分是含有语义的线性编码,而第二部分是建模随机变量的编码,提升了图像生成的质量并且在其他应用中可以用来做属性调整和去噪等任务。
Nov, 2021
本篇研究介绍 Diff-AE 与 GAE 两种基于 Diffusion probabilistic models 的编码器模型,实现由多个属性进行图像编辑和生成,大大降低了计算需求,并达到了相当不错的效果,对潜在特征得到了更好的分离。
Jul, 2023
提出了 CausalDiffAE,一种基于扩散的因果表示学习框架,能够根据指定的因果模型实现反事实生成,并通过编码器从高维数据中提取语义上有意义的因果变量,以及使用神经网络参数化潜在因果变量之间的因果机制。
Apr, 2024
通过深入研究 DPM 的表示能力,提出了一种名为 Repfusion 的新型知识迁移方法,该方法利用生成型 DPM 获取的知识用于识别任务,通过强化学习动态地根据不同的时间步骤从现成 DPM 中提取表示并作为学生网络的监督,实验证明此方法在多个任务中优于现有方法,揭示了 DPM 作为表示学习工具的潜力和生成模型在样本生成以外的用途。
Aug, 2023
本文介绍了一种更快的图像重建框架 LMD,通过潜在遮蔽扩散方法,将高分辨率图像投影和重建在潜在空间中,设计了渐进遮蔽扩散模型,通过三种不同的调度器逐渐提高遮蔽比例,以从简单到困难地重建潜在特征,从而加快模型训练速度,同时保持了原始准确性,并在下游任务中显著提高推理速度。
Dec, 2023
本文提出一种使用掩码自编码器作为扩散模型的条件,进而重复生成预训练视觉表示的方法,具备强大的下游识别任务的初始化能力,高质量图像修复和无需额外努力即可应用于视频分类等许多优点。同时,本文还对设计选择的利弊进行了全面的研究并建立了扩散模型和掩码自编码器之间的联系。
Apr, 2023
利用新型的去噪扩散概率模型(DDPMs)引入创新的期望最大化(EM)框架进行聚类,通过优化学习聚类友好的潜在表示,有效地提高了聚类、无监督条件生成和潜在表示学习的性能。
Dec, 2023
我们研究了最初用于图像生成的去噪扩散模型(DDM)的表示学习能力。我们的研究目的是逐步分解 DDM,将其转化为经典的去噪自编码器(DAE)。我们观察到现代 DDM 的很少组件对于学习良好的表示是至关重要的,而许多其他组件则不是必要的。我们的研究最终提出了一种高度简化并在很大程度上类似于经典 DAE 的方法。我们希望我们的研究能够在现代自监督学习领域重新激发对经典方法家族的兴趣。
Jan, 2024
通过使用预训练的扩散模型生成的样本进行训练,可以有效减轻变分自动编码器中的过拟合问题,并且表现出更好的泛化性能、缩小的模型猜测效应和更强的鲁棒性。
Oct, 2023
通过在预训练的自编码器的潜在空间中应用扩散模型,引入交叉注意力层到模型体系结构中,以更少的计算要求取得接近最优的性能,实现高分辨率合成,缩小像素级 DMs 对计算资源的需求。
Dec, 2021