- 使用两个潜在向量的统计模型的可识别性:维度关系的重要性及其在图嵌入中的应用
该研究论文提出了一个统计模型,通过引入辅助数据,并建立了各种可辨认性条件,其中包括非线性独立分量分析(ICA),并证明了所提模型的不确定性在某些条件下与线性 ICA 相同。在图数据中应用可辨认性理论,提出了一种可辨认的图嵌入方法,并通过数值 - 基于理论的重新思考自编码器在医学异常检测中的应用
利用信息理论揭示了基于自动编码器的重建方法在异常检测中的原理和设计理念,并验证了通过最小化潜在向量的信息熵来提高自动编码器在异常检测中的效果。
- RecNet: 基于范围图像嵌入的可逆点云编码用于多机器人地图共享与重建
该研究介绍了一种名为 RecNet 的新方法,通过将三维点云投影到深度图像并使用编码器 - 解码器框架进行压缩,从而同时解决资源受限机器人和多机器人系统中有效的位置识别问题。通过提取该过程中的潜在向量用于高效的位置识别任务,RecNet 不 - CFASL:组合因子对齐的对称学习用于变分自动编码器的解缠
提出了一种新方法,称为复合因素对齐对称学习(CFASL),该方法整合到 VAEs 中,以实现无监督学习中基于对称性的解缠学习,不需要任何数据集因素信息的先验知识。在定量和深入的定性分析中,CFASL 在单因素变化和多因素变化条件下相对于现有 - ICLR利用离散表示进行连续强化学习
通过对离散表示法进行彻底的实证研究,我们发现,与传统连续表示法相比,在世界模型学习、无模型强化学习和连续强化学习问题中,将观测数据表示为分类值向量能更准确地模拟世界,并且使用离散表示法训练的智能体能够更好地学习策略和使用更少的数据,在连续强 - 用于归纳迁移回归任务的几何对齐迁移编码器
通过使用差分几何,我们提出了一种基于几何对齐的转移编码器(GATE)的新型转移学习方法,该方法能够有效地在回归任务中从源数据向目标数据传递知识,并展现出在潜空间和外推区域的稳定行为,从而在各种分子图数据集上优于传统方法。
- 通过量化和概率质量函数概念从自编码器的潜空间采样
通过概率质量函数的概念,结合量化处理,我们引入了一种新颖的后训练采样算法,该算法可以从生成模型的潜在空间中取样,使得重建的样本更接近真实图像。我们的方法在速度上大大提高了运行效率,性能优于基于高斯混合模型的采样技术,并在一系列模型和数据集上 - 基于梯度的随机点积图的谱嵌入
用最新的非凸优化方法解决了 Random Dot Product Graph 的嵌入问题,并展示了其在网络表示学习中的有效性。
- 利用 VAE 估计形状复杂度
本文比较了估计二维形状复杂度的方法,并介绍了一种利用具有不同潜在向量大小的变分自编码器的重建损失的方法。虽然形状的复杂度不是一个明确定义的属性,但它的不同方面可以估计。我们展示了我们的方法捕获了一些形状复杂性方面。
- 概率对比学习恢复模糊输入的正确 Aleatoric 不确定性
该研究提出了一种基于分布预测的信息最大化方法,用于比较训练编码器的逆向重建任务,并且可以根据图像检索任务的不确定性估计出可信区间.
- 使用有条件训练的输入生成对抗网络从文本特征生成人脸
本文介绍了一种利用生成式对抗网络和自然语言处理模型生成人脸的新方法,将面部描述转换为可学习的潜在向量,从而生成与这些特征相对应的面部。
- 使用去噪扩散和 CLIP 对预训练 StyleGAN 进行文本驱动采样
引入了一种新的方法,可以从预训练的 CLIP 和 StyleGAN 中高效创建文本到图像模型,无需外部数据或微调。通过训练一个基于 CLIP 嵌入的扩散模型以对预先训练的 StyleGAN 的潜在向量进行采样,我们称之为 clip2late - ACL从预训练语言模型中提取潜在的操纵向量
本研究提出一种新的控制文本生成方式,在不进行优化的情况下直接从预训练的语言模型解码器提取潜在向量。实验证明存在可用于控制的方向向量,并且可以用于 YELP 情感基准测试和文本相似性基准测试,反映句子的相似性。
- ProsoSpeech: 用量化向量预训练增强语音合成的韵律
介绍 ProsoSpeech 模型,通过量化预训练的潜在语调向量来增强 Prosody,该模型可生成具有比基线模型更丰富 Prosody 的表达性音频。
- AIR-Nets: 一种基于注意力机制的局部条件隐式表示框架
本文介绍了一种名为 AIR-Nets 的注意力隐式表示网络,用于从点云中重建 3D 形状。通过利用局部和模块化表示 3D 形状,AIR-Nets 将输入点云编码为一组锚定在 3D 空间中的局部潜在向量,并具有全局潜在描述,以实现全局一致性。 - CVPRGAN 中潜在空间维度的利用,用于实时图像编辑
通过在中间的潜空间使用具有空间维度的调制替换 AdaIN,我们提出了 StyleMapGAN,它使得通过编码器的嵌入比现有基于优化方法更加准确,同时保持 GAN 的属性。实验结果表明,我们的方法在各种图像操作任务中显著优于最先进的模型。
- EMNLP意见总结的凸聚合
本研究发现,使用简单平均聚合方法生成的潜向量会因为 $L_2$ 范数收缩而导致生成的摘要过于泛化。我们通过使用 Coop 框架中的输入输出单词重叠来改进向量聚合方法并取得了优异性能,成为了两项意见摘要基准测试的最新技术。
- ICCV泛零样本学习的语义分离
本文针对广义零样本学习任务,提出了一种新颖的语义分离框架,使用条件 VAE 将未见过的类别的视觉特征分解为与语义一致、不相关的潜在向量,并且通过相关性惩罚和关系网络确保两个分解表示之间的独立性和语义一致性。在四个广义零样本学习基准数据集上的 - 利用高斯化的潜空间改善 StyleGAN 中的反演和生成多样性
本文研究了生成式对抗网络中的潜在向量空间中数据分布模型,提出了一个简单的高斯先验模型,用于规范图像向潜在空间的映射,这样生成的图像更加平滑和稳定,同时维持多样性和减少生成图像中的伪像。
- AAAI广义对抗学习推断
通过将 self-supervised feedback 引入到 GANs 的训练中,匹配多个随机变量元组的联合分布,以获得超出现有方法的更高应用性。