May, 2018

依赖变分Beta-Bernoulli Dropout的自适应网络稀疏化

TL;DR我们提出了一种自适应的变分dropout方法,在此方法中使每个神经元进化为通用或特定于某些输入,或完全被删除,以允许网络耐受更大程度的稀疏性,同时消除功能中冗余项,我们在多个公共数据集上验证了我们的依赖性变分beta-Bernoulli dropout方法,并获得比基准方法更紧凑的网络,其中在基本网络上保持准确性。