Nov, 2018
无监督学习中解开表征的常见假设的挑战
Challenging Common Assumptions in the Unsupervised Learning of
Disentangled Representations
TL;DR本文分析了无监督学习分离表示的最新进展并挑战了一些常见假设,通过实验研究发现,不加监督训练的模型很难达到良好的分离效果,同时,增加分离度似乎不会降低学习的样本复杂度,未来的研究应该关注归纳偏置和(隐式)监督的作用,考虑在多个数据集上复现实验结果。