Mar, 2024
分布式数据集蒸馏与子任务分解
Distributional Dataset Distillation with Subtask Decomposition
TL;DR神经网络在从特定任务的数据集中进行训练时学到了什么?数据集精炼是合成这种知识的中心思想,我们提出了分布式数据集精炼(D3)方法,使用最小的充分类别统计信息,与解码器一起使数据集转化为一种更节省内存的分布式表示方法。通过对数据集进行分割、并行使用子任务专家进行精炼然后重新聚合的方式,我们提出了联邦精炼方法,以扩大学习这些表示的过程。我们对其进行全面评估,并在TinyImageNet和ImageNet-1K数据集上展示了其在三维度度量上达到了最先进结果。特别地,在每类存储预算为2张图片的情况下,我们在ImageNet-1K数据集上的结果优于先前的方法6.9%。