对比变分自编码器增强显著特征
该论文提出 Contrastive Analysis VAE (CA-VAEs) 方法来解决 VAE 中存在的信息共享和捕捉所关注的变化因素的问题,并使用两个关键的规则化损失(common-salient 表示的分离项和在 salient 空间中对背景和目标样本的分类项)进行改进。实验证明 CA-VAEs 在医学应用和自然图像数据集 CelebA 上的表现优于先前的方法。
Jul, 2023
本文提出了一种名为 ACVAE 的新方法,利用变分自编码器(VAE)和对抗训练来生成高质量的潜在变量,同时使用对比损失来学习个性化特征,并在捕捉序列的全局和局部相关性之前引入了卷积结构,实现了基于序列的推荐,实验表明,ACVAE 模型胜过其他现有的方法。
Mar, 2021
本文提出一种基于最大平均差异的对比 VAE 模型,用于隔离数据集中与任务有关的变异,提高对比分析性能。经过对三个具有挑战性的对比分析任务的定量与定性分析,本方法相较于之前的最新技术有更好的表现。
Feb, 2022
本研究提出了一种新颖的方法来构建变分自编码器 (Variational Autoencoder,VAE), 该方法通过 enforced deep feature consistency 的方式替代了传统的像素级别的损失,以充分保留输入数据的空间相关性,产生更自然的视觉效果和更好的感知质量。 对 CelebA 数据集的测试结果表明,我们模型能够优于其他文献中的方法,并且还能够产生能捕捉面部表情语义信息的潜在向量,这些向量可用于实现面部属性预测的最新性能。
Oct, 2016
提出了一种称为对比去纠缠顺序变分自动编码器(C-DSVAE)的方法来进行自我监督的去纠缠表示学习,并使用对比估计的互信息以及简单且有效的数据增强技术来引入附加的归纳偏差。实验结果显示,C-DSVAE 在多个度量标准上显著优于现有的最先进方法。
Oct, 2021
本研究提出了一种基于深度学习自编码器的未监督学习方法,结合了重构与密度计算的异常得分方法,成功地应用于医学影像的异常检测,并在 BraTS-2017 和 ISLES-2015 分割基准测试中表现出色。
Dec, 2018
通过使用自我监督对比编码器学习仅从输入图像中提取共同模式的潜在表示,利用数据增强技术近似目标模式的分布,并利用高级生成方法的条件生成过程,生成仅包含共同模式的真实(健康)版本的输入图像,从而提高生成图像质量和图像分类准确性。
Jun, 2024
通过构建高斯混合变分自编码器,基于对比学习构建了一个多标签预测模型,利用数据驱动方式有效挖掘标签信息和增强预测能力,且通过学习特征和标签的潜在空间实现了更好的性能,适用于多个公共数据集。
Dec, 2021
针对变分自编码器的先验洞问题,我们提出了一种能源化先验,通过基础先验分布和重新加权因子的乘积来定义,以使基础先验更接近集体后验,并通过噪声对比估计来训练重新加权因子,实验证明此方法可以大幅提高 MNIST、CIFAR-10、CelebA 64 和 CelebA HQ 256 数据集上的最先进 VAE 的生成性能。
Oct, 2020