缩小联合能量模型的性能差距
本篇论文针对 Joint Energy-based Model (JEM) 的稳定性、准确性和速度提出了多种新的训练流程和架构特征,其中包括使用 proximal SGLD 生成与之前步骤相邻的样本、将 EBM 的近似最大似然学习视为多步微分博弈,并扩展 YOPO 框架以削减反向传播过程中的冗余计算、采用从训练数据中估计的分布采样的新的信息性初始化,以及在 JEM 中应用批量归一化等。
Sep, 2021
研究了对抗训练在能量函数方面的作用,发现其对生成能力的关键在于能够形成一种平坦的、在真实数据周围能量较低的能量函数。在此基础上,提出了一种新的对抗训练方法 JEAT,可以生成高质量图像并在各种攻击状态下取得最新的鲁棒性。
Aug, 2021
本研究提出了一种流形能量模型(M-EBM),以提高 unconditional EBM 和 Joint Energy-based Model (JEM) 的整体性能,在众多基准数据集上均显着提高训练稳定性和速度,在有类标签的情况下,标签集成 M-EBM (M-JEM) 进一步提高了图像生成质量,FID 改善了 40% 以上,并且精度也有所提高。
Mar, 2023
该研究提出了 GDPNet,这是第一个综合生成和判别的 PointNet 模型,扩展了 JEM 用于点云分类和生成,既保留了现代 PointNet 分类器的强大判别能力,又生成了与最先进的生成方法相媲美的点云样本。
Apr, 2024
在这项研究中,我们提出了一种新颖而高效的技术来改善基于一致性模型生成的图像的感知质量,并利用联合分类器 - 判别器模型进行后处理,通过引导示例特定的投影梯度迭代,使合成图像更加精细,从而在 ImageNet 64x64 数据集上获得了改进的 FID 得分,适用于一致性训练和一致性蒸馏技术。
May, 2024
本研究介绍了一种针对方言的新型边界增强联合能量模型(MEJEM),用于方言中的 OOD 检测。通过集成生成模型和能量边界损失,我们的方法旨在增强方言识别系统的鲁棒性。此外,我们探索了两种 OOD 得分的方言检测方法,研究结果明确表明能量得分优于 softmax 得分。利用锐度感知最小化优化联合模型的训练过程,通过最小化损失和锐度的方法增强模型的泛化性。在方言识别任务上进行的实验证实了基于能量的模型的有效性,并提供了有价值的性能见解。
Jun, 2024
本研究基于联合能量模型,提出了一个名为 JEBGFNs 的模型,用于生成多个变量的离散对象。通过对抗性奖励,结合 GFlowNet 模型训练参数,此模型在生成抗菌肽方面的性能得到了显著改善,并在发现抗菌肽的主动学习设置中得到了评估。
Nov, 2022
本文介绍了一些在连续神经网络上训练 MCMC 的能量基础模型的技术,在许多高维度数据域上,如 ImageNet 和 CIFAR-10, 它们的样本表现优于其他可能性模型,并接近当代生成对抗网络 GAN 的表现,同时覆盖所有数据模态。此外,作者还阐述了基于 EBM 的独特能力,如组合性和损坏图像的重建和修复,最后证明 EBMs 模型是跨多种任务有用的模型,进而实现了最先进的超出分布分类、对抗性稳健分类、在线连续类学习和连续长期预测轨迹
Mar, 2019