生成蒸馏下的扩散模型的持续学习
本研究评估扩散模型的连续学习特性,通过给 Denoising Diffusion Probabilistic Models (DDPMs)应用经验重放,发现一定程度的遗忘可以被减少,但在扩散步数上,其表现多种多样。同时揭示使用 bits-per-dimension 指标评估 CL 时的某些问题。
Mar, 2023
通过生成模型提高图像质量以减少分类器中的灾难性遗忘,我们提出了基于类原型的条件扩散模型(CPDM),它通过在扩散模型的去噪过程中集成可学习的类原型来保持图像生成质量,并缓解了灾难性遗忘的风险。
Dec, 2023
通过图像条件实现的一种新颖的有条件蒸馏方法,将扩散模型的先验知识与图像条件相结合,大大简化了以往两阶段的蒸馏过程,并通过少量的额外参数和冻结的无条件主干网络实现了一种新的高效蒸馏机制,实验结果表明,该方法在多个任务上的表现优于现有的人工蒸馏技术,并且是第一个能够与更慢的精细调优有条件扩散模型相匹配的蒸馏策略。
Oct, 2023
基于数据增强的知识蒸馏方法提出,通过条件扩散模型生成高回报轨迹,并通过新的奖励生成器运用新颖的拼接算法将其与原始轨迹混合。将得到的数据集应用于行为克隆,学习到的规模较小的浅层策略在几个 D4RL 基准测试中表现优于或接近深度生成规划器。
Feb, 2024
基于蒸馏的自主引导 (DSG) 模型利用生成式回放机制,通过知识蒸馏从先前基于扩散的生成器向更新的生成器传输知识,从而提高了生成器的稳定性和再现数据的质量,有效缓解了在工业流数据中出现的挑战,并在 CWRU、DSA 和 WISDM 数据集上取得了优于现有基准模型的实验结果,展示了在实践工业应用中的潜力。
Jun, 2024
我们研究了连续离线强化学习,这是一种实用的范例,用于前向转移和减轻灾难性遗忘,以应对顺序离线任务。我们提出了一种双生成重播框架,通过同时重播生成的伪数据来保留先前的知识。我们将连续学习策略解耦为基于扩散的生成行为模型和多头行动评估模型,使策略能够继承分布表达能力,以包含逐步丰富的多样行为范围。通过训练一个任务条件的扩散模型来模拟过去任务的状态分布,生成的状态与行为生成器对应的回应配对,以高保真度回放样本来表示旧任务。最后,通过将伪样本与新任务的真样本交错,不断更新状态和行为生成器,以逐步多样化的行为建模,并通过行为克隆对多头评论者进行正则化,以减轻遗忘。实验证明,我们的方法在前向转移方面取得了更好的效果并且由于其高保真度的样本重放,与使用以前的真实数据近似的结果。
Apr, 2024
利用生成式文本到图像模型的最新进展,我们引入了数据集精炼使用扩散模型 (D3M) 作为一种新的数据集精炼范式。通过文本反演技术,我们利用学习到的文本提示为大型数据集创建简洁且有信息量的表示,以在固定的内存预算内有效地存储和推理新样本,并通过在不同内存预算下在各种计算机视觉基准数据集上进行的广泛实验验证了我们方法的有效性。
Mar, 2024
扩散模型在图像生成、解决逆问题和文本到图像合成等各种应用中展示了领先的性能。我们揭示了与大多数其他生成模型截然不同的 “一致模型可重现性” 现象,通过广泛的实验表明,扩散模型在相同初始噪声输入和确定性求解器采样时,倾向于产生几乎相同的输出内容。此模型可重现性在不同的训练环境下均成立,包括记忆化和泛化模式。进一步的分析提供了对 “记忆化模式” 中模型可重现性的理论解释,并揭示此有价值的特性适用于许多扩散模型的变种。更深入理解此现象有可能产生基于扩散模型的更可解释和可控的数据生成过程。
Oct, 2023
通过新的参数化方法和扩散模型的渐进提炼过程,从而在不降低感知质量的前提下将采样步骤尽量减少到四步,从而提高了采样效率,并为生成建模提供了高效的解决方案。
Feb, 2022