ICMLJun, 2013
基于反向传播训练的深度生成随机网络
Deep Generative Stochastic Networks Trainable by Backprop
Yoshua Bengio, Éric Thibodeau-Laufer, Guillaume Alain, Jason Yosinski
TL;DR该论文提出了一种新的概率模型训练原则 —— 基于学习马尔可夫链的转移算子,其稳态分布估计数据分布,并能采样出变量的子集。我们提供了一些定理以证明该方法的有效性,该方法也能适用于带有缺失变量的情况,并且不需要分层逐层预训练。