- ICLR概率隐式场景补全
该研究提出了一种面向大规模 3D 场景连续几何的概率形状完成方法,该方法利用生成细胞自动机学习多模态分布,通过稀疏体素嵌入渐进式生成连续形状,其训练目标最大化完整形状分布的变分下限,并通过实验证明了相比于确定性模型,该方法在几何完成方面的表 - 变分扩散模型
本文介绍了一种基于扩散的生成模型,并通过优化噪声时间表等带有高效率的方法,使其在标准图像密度估计基准测试中获得最先进的似然。
- 使用 delta-VAEs 预防后向崩溃
针对当前潜变量生成模型中的副坍缩现象,本论文提出了一种 delta-VAEs 方法,通过限制后验变分族的最小距离以确保潜变量的气质保留和编码,实现了变分下界的最优化,并在表示学习上显示了实用性,实现对文本和图像的建模以及在 CIFAR-10 - NIPS变分扫掠:用于大分辨率图像的高效推断
提出了一种使用代理分布降低高分辨率图像分类的推理和存储成本的方法,并介绍了一个新的原则性变分下界来捕捉代理分布后验与原始图像坐标空间之间的关系以最大化条件分类似然函数。在合成基准测试和现实世界大分辨率 DSLR 相机图像数据集上进行实证的结 - 蒙特卡罗目标的双重重参数化梯度估计器
本文提出了一种称为双参数梯度估计器的方法,用于 Deep latent variable models 中的训练,并证明了该方法的可行性和有效性。
- NIPS通过对抗信息最大化生成富有信息量和多样化的对话回应
采用对抗信息最大化方法优化神经会话模型,通过对抗训练和变分下限优化可提高模型回复的信息量和多样性。
- ACL最大化互信息用于简单和准确的词性归纳
本文提出了一个新的对于词性识别的方法,将词标签和上下文之间的互信息最大化来进行词性归纳。作者聚焦于两个适用于随机梯度下降的训练目标:一种对于经典的 Brown 聚类目标的新的泛化方法和一种最近提出的变分下限。尽管这两个方法都会受到梯度更新噪 - ICLR重塑重要性加权自编码器
通过优化更复杂的分布,重要性加权自编码器最大化标准变分下限而非标准证据下限,我们推导出该结果,并展示了比标准下限更紧的下限和隐含的重要性加权分布可视化。
- ICLR生成对抗网络作为基于能量模型的变分训练
该论文研究了深度生成模型在有效的无监督学习中的应用,提出了 VGAN 模型,通过最小化能量密度函数的负对数似然的变分下界,使得模型能够用 Variational Distribution 进行采样,从而可以更方便地训练模型。
- 早停法是非参数变分推断
本研究使用非参数变分近似后验分布的样本抽取来解释随机梯度下降,为基于最小下限的对数边际似然的超参数优化提供一种输出,包括神经网络等领域。
- 使用视觉注意力的神经图像字幕生成
该论文介绍了一种基于注意力机制的模型,通过机器翻译和物体检测实现图像内容的自动描述,通过最大化变分下界确定性训练该模型,并展示了该模型在生成输出序列时能够自动学习聚焦于显著物体。三个基准数据集上的性能表现也证明了该模型的有效性。
- ICML深度自回归网络
本文介绍了一种深度、生成式自编码器,它能够从数据中学习分层式分布式表示。通过基于最小描述长度原理的有效近似参数估计方法,我们证明了该方法在几个经典数据集上取得了最先进的生成性能。