卷积自编码器学习时的空间频率损失
本文提出了一种基于深度学习的图像压缩架构,利用卷积自编码器的优势达到了更高的编码效率,并利用主成分分析来产生一个更加能量紧凑的表示,实验结果表明,该方法相对于传统的图像编码算法在 Kodak 图像数据库上获得了 13.7%的 BD 速率降低,而且与 JPEG2000 具有类似的复杂度。
Apr, 2018
本研究采用进化算法来搜索优化简单的卷积自编码器,用其进行图像恢复任务,无需采用对抗训练和复杂的损失函数,实验结果在 CelebA 和 SVHN 数据集上表现出色。
Mar, 2018
通过修改变分自编码器的重构项,引入傅里叶变换和局部相位一致性的损失函数,解决生成样本模糊性问题,并在 MNIST 数据集上提供了定性和定量结果。
Jan, 2024
本研究展示了狭窄频率域中缩小误差能够进一步改善图像重建和合成质量,提出了新的焦点频率损失函数并在多种流行的模型中展示其作用,同时对 StyleGAN2 的潜在性进行了探讨。
Dec, 2020
本研究提出了一种高效的层级无监督训练深度卷积神经网络的学习策略,采用随机凸化的重构压缩自编码学习目标,并通过坐标下降法在频域中解决 resulting large-scale convex minimization problem,具有单个可调优化参数,快速且有保证的收敛以及全并行计算的可能性,在实验中得到良好的效果。
Nov, 2016
为了训练变分自编码器以生成真实图像,我们提出了一种基于 Watson 视觉模型的损失函数,通过计算颜色图像中的加权距离和掩模来反映人类对图像相似性的知觉,并将其拓展到彩色图像上。在实验中,VAE 利用新的损失函数进行训练可生成更真实、高质量的图像样本,相较于欧几里得距离和结构相似性指数,图像模糊度更低,与基于深度神经网络的损失相比,新方法需要更少的计算资源,并且生成的图像具有更少的伪影。
Jun, 2020
本文提出了一种用于增强 VQ-VAE 结构的频率补全模块 (Frequency Complement Module, FCM),并且引入了一种动态频谱损失 (Dynamic Spectrum Loss, DSL),用于引导 FCM 动态地平衡频率以获得最佳重建。FA-VAE 进一步扩展到了文本到图像合成任务中,并提出了交叉注意力自回归变换器 (Cross-attention Autoregressive Transformer, CAT) 以获得更精确的文本语义属性。通过在几个基准数据集上进行广泛的重建实验,并与其它最先进的方法进行比较,结果表明,所提出的 FA-VAE 能够更忠实地恢复细节。CAT 在图像文本语义对齐方面也显示出了更好的生成质量。
May, 2023
本文理论证明了用 BCE 训练的 DAE 能够在数据空间中向高概率区域梯度下降,进而在实验中通过噪声数据生成和对初始数据的迭代应用 DAE 进行数据向高概率区域的改进。
Aug, 2017
本研究提出了引导频率损失(GFL)方法,通过聚合 Charbonnier 组件、拉普拉斯金字塔组件和渐进频率组件,有助于在图像频率内容和空间内容之间平衡地学习,通过对超分辨率和降噪任务的实验发现,GFL 损失方法在大多数实验中提高了 PSNR 指标,并且在 SwinIR 和 SRGAN 的超分辨率模型的训练中也取得了改善。
Sep, 2023