变分贝叶斯量化
该研究利用基于期望最大化算法的训练技术提高 VQ-VAE 模型在 CIFAR-10 数据集上的图像生成结果,并通过知识蒸馏技术,开发出一种非自回归机器翻译模型,其准确性几乎与强贪婪自回归基线变压器相当,但在推理速度上快 3.3 倍。
May, 2018
本文提出了一种基于变分贝叶斯神经网络的数据压缩方法,并使用相对熵编码代替量化和熵编码以优化 $eta$-ELBO 的速率失真性能,同时通过迭代算法学习先验权重分布并采用渐进式细化过程来有效提高压缩性能。实验证明,该方法在图像和音频压缩方面具有强大的性能,同时仍保持简洁。
May, 2023
基于变分贝叶斯框架,提出一种新颖的统一框架,即分层量化变分自动编码器(HQ-VAE),其以离散表示形式随机学习层次化的离散特征,并解决了分层 VQ-VAE 中的代码本 / 层级坍塌问题,从而提高重建性能。
Dec, 2023
本文提出了一种基于向量量化 (VQ) 的生成模型的图像压缩编码框架,通过学习 VQGAN 模型的码本可实现在潜空间内对连续信息进行高效压缩,从而在极低比特率下实现优质的重构图像。
Jul, 2023
本文提出了一种基于量化的正则化器来防止过拟合和后验坍缩现象,通过在 Autoencoder 的瓶颈阶段使用噪声和贝叶斯估计器优化 quantizer-based 表示结果,结果表明相对于使用其他瓶颈结构的 Autoencoder,在监督学习和聚类下游任务中,提出的正则化方法可以得到更好的潜在表示。
May, 2019
使用压缩自编码器进行潜在变量估计,在变分推断框架内实现此估计,并能快速、简便(近似地)进行后验采样,证明该方法能够与最先进的即插即用方法达到类似的性能,并且能够比其他现有的后验采样技术更快地量化不确定性。
Nov, 2023
本文提出了一种名为 SQ-VAE 的新型训练方法,通过引入一种名为自退火的随机量化方法,扩展标准变分自编码器来提高编码本的利用率,并在视觉和语音任务中优于 VAE 和 VQ-VAE
May, 2022