May, 2020
在固定的内存预算下进行深度集成:一种宽网络或多个较窄的网络?
Deep Ensembles on a Fixed Memory Budget: One Wide Network or Several
Thinner Ones?
TL;DR该研究考虑在固定内存预算设置下,在训练单个宽网络或训练一组细网络之间,性能哪种更有效。研究发现,对于足够大的预算,采用内存分割,即训练一组较薄的网络,通常比训练单个宽网络更为有效。该发现被称为“内存分割优势”,适用于各种数据集和模型架构。