JEM++:训练 JEM 的改进技术
本文介绍了一系列训练技术来填补 JEM 的准确性和生成质量之间的差距,包括使用 SAM 框架来促进 JEM 能量景观的平滑性和泛化能力,将数据增强从 JEM 的最大似然估计管道中排除,并缓解数据增强对图像生成质量的负面影响。大量实验证明,我们的 SADA-JEM 在图像分类、图像生成、校准、外部分布检测和对抗鲁棒性方面均取得了突出表现,优于 JEM。
Sep, 2022
本研究提出了一种流形能量模型(M-EBM),以提高 unconditional EBM 和 Joint Energy-based Model (JEM) 的整体性能,在众多基准数据集上均显着提高训练稳定性和速度,在有类标签的情况下,标签集成 M-EBM (M-JEM) 进一步提高了图像生成质量,FID 改善了 40% 以上,并且精度也有所提高。
Mar, 2023
本文提出 Non-Generative EBM 方法作为一种有效的训练方法,可以在保持 EBM 中关键的稳定性和性能的同时,降低计算复杂度和开销。该方法能够大幅提高 CIFAR10 和 CIFAR100 数据集的预期校准误差。
Apr, 2023
本文介绍了一种基于 Jarzynski 平等和序贯蒙特卡洛抽样工具的改进型未校正 Langevin 算法来更有效地计算交叉熵的梯度,避免了标准对比散度算法中存在的不可控逼近问题,在高斯混合分布和 MNIST 数据集上的实验结果均显示该方法优于对比散度算法。
May, 2023
本文提出了一种简单的方法来训练基于能量的模型(EBMs),并将其应用于半监督分类,方法利用熵正则化的生成器来分摊在 EBM 训练中通常使用的 MCMC 采样,这使得实验结果更快、稳定和可行。
Oct, 2020
本文提出了一种基于能量的模型 (EBM) 方法,通过在所有层的潜在变量上建立联合潜在空间 EBM 先验模型,以层内能量项捕捉每一层的内部上下文关系,跨不同层的潜在变量则通过联合校正。并提出联合训练方案 (最大似然估计 MLE 和基于推理模型的变分训练方案),使得学到的模型可以在生成高质量图像和捕捉分层特征方面具有表现力和更好的异常检测效果。
Jun, 2023
本文介绍了一些在连续神经网络上训练 MCMC 的能量基础模型的技术,在许多高维度数据域上,如 ImageNet 和 CIFAR-10, 它们的样本表现优于其他可能性模型,并接近当代生成对抗网络 GAN 的表现,同时覆盖所有数据模态。此外,作者还阐述了基于 EBM 的独特能力,如组合性和损坏图像的重建和修复,最后证明 EBMs 模型是跨多种任务有用的模型,进而实现了最先进的超出分布分类、对抗性稳健分类、在线连续类学习和连续长期预测轨迹
Mar, 2019
该研究提出了 GDPNet,这是第一个综合生成和判别的 PointNet 模型,扩展了 JEM 用于点云分类和生成,既保留了现代 PointNet 分类器的强大判别能力,又生成了与最先进的生成方法相媲美的点云样本。
Apr, 2024
本文提出一种联合训练方法,从而学习变分自动编码器(VAE)和潜在基于能量模型(EBM)。该联合训练方法基于一个客观函数,其中包括三个关于潜空间和图像的共同分布的 Kulback-Leibler 分歧,从而无缝集成多样化和对抗性学习。实验表明,这种联合训练极大地提高了 VAE 的综合质量,也使得学习能够检测异常的能量函数成为可能。
Jun, 2020