- 一致性扩散模型的可证明统计速率
本文提出了一种统计理论,将一致性模型的训练视为分布差异最小化问题,并通过使用 Wasserstein 距离,导出了与传统扩散模型相匹配的一致性模型的统计估计速率,同时揭示了一致性模型通过蒸馏和隔离方法进行训练的优势。
- 非监督式表征学习的扩散桥自编码器
通过引入 Diffusion Bridge AuteEncoders(DBAE),我们解决了传统扩散模型中信息拆分问题,并实现了更好的重构模型和生成模型,提高了下游推断质量、重构质量和解耦性能。
- 扩散模型概述:应用、引导生成、统计速率和优化
扩散模型是强大且通用的生成式人工智能技术,在计算机视觉、音频、强化学习和计算生物学等领域取得了巨大的成功。本文回顾了扩散模型的新兴应用,理解了它们在各种控制下的样本生成。同时,我们概述了现有的扩散模型理论,涵盖了它们的统计性质和采样能力。进 - 特征引导:在大引导尺度下对 DDPM 的非线性校正
提出了特征引导方法,用于对无分类器指导的扩散概率模型进行非线性修正,以保证其与底层扩散过程的福克 - 普朗克方程相吻合,同时能够优化样本生成过程,解决颜色、曝光等问题,还能够处理相变等物理问题。
- 扩散生成模型的高效整合器
快速、确定性 / 随机采样是拓展扩散模型类别的原则性框架,我们提出的补充性框架是共轭积分器和分裂积分器,经过广泛的实证和理论研究,在扩展空间中取得了最好的性能,应用于 CIFAR-10 的相空间朗之万扩散模型,我们的确定性和随机采样器在仅 - 数据驱动高效与有效的无数据知识蒸馏
提出了一种基于嘈杂层生成方法(NAYER)的无数据知识蒸馏技术,能够通过利用含有大量有意义的跨类信息的标签文本嵌入(LTE)作为输入来生成高质量样本,并通过嘈杂层防止模型过度强调受限制的标签信息,从而在保持方法效率的同时促进生成多样样本的方 - 大规模基于梯度的因子分析混合模型训练
通过随机梯度下降方法,本论文针对高维数据提出了一种高效的高维混合因子分析(MFA)模型训练方法,并利用 MFA 应用于图像数据集进行样本生成和异常检测。
- SyMOT-Flow: 学习最大均值差异下的两个任意分布的最优输运流
介绍了一种名为 SyMOT-Flow 的新型模型,通过最小化两个未知分布样本之间的对称最大均值差异,训练可逆转换,并结合最优传输成本作为正则化以获得短距离和可解释的转换,从而导致更稳定和准确的样本生成。
- 经典规划中学习启发式函数的样本生成策略理解
本研究旨在通过使用样本学习启发式函数,研究影响学习启发式函数性能的样本生成策略,并提出实用策略,以改善所得到的神经网络启发式函数的质量。
- 软截断:基于得分扩散模型的高精度得分估计的通用训练技术
研究表明,扩散模型中样本生成的表现与密度估计呈负相关,这是因为密度估计对小扩散时间的贡献较大,而样本生成主要依赖于大扩散时间;为了成功训练模型,我们引入了一种通用的技术 —— 软截断,该技术将固定的截断超参数转化为随机变量,实验证明该方法在 - 自我诊断 GAN:诊断生成对抗网络中低频样本
本文提出了一种简单而有效的方法,通过诊断和强调 GAN 训练过程中未表示的训练样本,从而提高 GAN 在各种数据集上的性能,特别是在改善样本生成的质量和多样性方面对于少数派群体非常有效。
- ICML机器学什么不重要,我们无法教的才是关键
本文指出,基于密集均匀样本的训练集是学习复杂任务的限制,因为实践者会高估模型的准确性;通过一项案例研究解决 “共谓查询包含” 问题,我们证明了任何 $ extit {NP}$ 难问题多项式时间样本生成器的采样都是从一个更容易的子问题中进行的 - AAAI自对抗学习贝叶斯采样
本文提出一种新的自我对抗学习框架,用于通过学习条件生成器来生成高质量的样本,并自动学习马尔可夫内核的行为,从而逐渐逼近目标分布,从而在可扩展 Bayesian 采样和非监督深度学习模型等方面取得优势。
- CVPR适用于少样本细粒度识别的跨模态幻象技术
提出一种基于深度学习的多模态方法,通过有意义的联合嵌入来弥合模型训练中数据不足的信息差距,并通过跨模态数据幻觉框架提出了一个区分性文本条件生成对抗网络,改进了基于 CUB 数据集的一、二、五次学习的模型准确性。
- ICLR通过注入训练从噪声中学习生成样本
本文研究了一种新的训练过程,学习作为马尔可夫链过渡操作器的生成模型,将未经处理的随机噪声样品重复应用,将其去噪为与训练集目标分布匹配的样品。
- ICML生成对抗网络半监督学习
将生成对抗网络扩展到半监督学习中,强制鉴别器网络输出类标签,能够创建更具数据效率的分类器以及比正常 GAN 生成更高质量的样本。