信息扩散:使用信息最大化扩散模型的表示学习
通过引入 “关键信息优先” 生成策略和基于文本信息量的噪声调度,结合自我条件限制和部分加噪模型结构,InfoDiffusion 在生成质量、多样性和采样效率等方面优于基准模型。
Oct, 2023
通过在模型训练过程中加入约束条件使其生成的样本更符合所施加的约束,从而提高生成样本与约束的一致性,且相较于现有方法有更好的性能且不影响推断速度;该方法还可以自然地防止过拟合。
Mar, 2024
我们提出了去噪扩散变分推断(DDVI)算法,它是一种基于扩散模型作为表达性变分后验的潜变量模型的近似推断算法。我们的方法通过辅助潜变量来增强变分后验,从而得到一类表达性模型,通过反转用户指定的噪声过程在潜变量空间中进行扩散。通过优化受 wake-sleep 算法启发的边缘似然的一种新的下界,我们拟合这些模型。我们的方法易于实现(它适用于正则化的 ELBO 进一步扩展),与黑盒变分推断兼容,并且优于基于归一化流或对抗网络的替代近似后验类别。当应用于深层潜变量模型时,我们的方法得到了去噪扩散 VAE(DD-VAE)算法。我们将该算法应用于生物学中的一个激励任务 -- 从人类基因组推断潜在祖先 -- 在 Thousand Genomes 数据集上优于强基线模型。
Jan, 2024
DiffusionDialog 是一种新的方法,通过引入扩散模型来增强对话生成的多样性。在该方法中,我们将连续潜变量引入扩散模型,通过与编码器结合,将响应的潜在表示编码为连续空间的先验,并通过扩散模型逐步去噪来推断潜变量。实验结果表明,我们的模型在保持连贯性的同时极大地增强了对话回应的多样性。此外,进一步的分析发现我们的扩散模型实现了高效的推断,这是在自然语言处理中应用扩散模型的主要挑战。
Apr, 2024
基于扩散模型的条件采样方法,在黑盒优化中生成接近最佳解且保留设计的潜在结构,通过建立理论模型和进行实验验证,证明了奖励导向扩散模型在黑盒优化中的效率和准确性。
Mar, 2024
提出了一种基于扩散的表示学习方法,通过扩展去噪得分匹配框架实现无监督学习;使用此方法学习无限维潜在码,实现半监督图像分类的最优结果,并通过下游任务的表现比较与其他方法的学习表示质量。
May, 2021
该研究论文讨论了扩散模型在离散领域(如语言)的应用,提出将扩散模型作为基于预训练语言模型的生成算法的辅助方法,并通过在预训练的编码器 - 解码器模型的潜在空间中学习连续的潜在扩散模型,演示了其在从数据分布中生成文本方面的有效性。最终提出的潜在扩散模型不仅在生成新颖文本方面优于强有力的自回归基线,还支持可控的生成。
Dec, 2022
扩散模型和表示学习之间的相互作用进行了综述,包括数学基础、去噪网络架构和引导方法等方面,阐述了与扩散模型和表示学习相关的各种方法,并提出了对扩散模型和表示学习分类的综合概述以及现有关注点和潜在研究领域。
Jun, 2024
通过引入离散潜变量,我们提出了一种简化数据编码的方法,DisCo-Diff 模型,它不依赖于预训练网络,并且在玩具数据、图像合成任务和分子对接等多个领域中验证了其改进模型性能的能力。
Jul, 2024
本研究重新考虑扩散模型的总体框架,将其视为具有未观察到扩散轨迹的潜在变量模型,并应用于数据不受限制的领域。利用最大似然估计,我们表明模型构建和潜在路径的插补都可以构造扩散桥过程,实现端点的确定值和约束条件,并提供一套系统的研究和工具,进而提出了学习扩散生成模型的第一个理论误差分析和学习不同离散和受限领域数据的简单而统一的方法。实验证明,我们的方法在生成图像、语义分段和 3D 点云方面表现出色。
Aug, 2022