Oct, 2023
通过与平滑高质量专家轨迹的对齐实现高效的数据集精炼
Efficient Dataset Distillation through Alignment with Smooth and
High-Quality Expert Trajectories
TL;DR本文提出了一种数据集蒸馏的方法,通过集成剪断损失和梯度惩罚来调整专家轨迹参数的变化速率,并提出代表性初始化、均衡内环损失和权重摄动等增强策略,以解决现有方法在训练大型机器学习模型时存在的问题。实验结果表明,该方法在各种规模、大小和分辨率的数据集上明显优于之前的方法。