基于难度对齐轨迹匹配的无损数据集蒸馏
本研究提供了一种新的算法,使用合成数据集优化网络,可以快速、高效地将神经网络训练到与真实数据相似的状态,从而实现数据集精简化处理,并能够处理高分辨率视觉数据。
Mar, 2022
本文提出了一种数据集蒸馏的方法,通过集成剪断损失和梯度惩罚来调整专家轨迹参数的变化速率,并提出代表性初始化、均衡内环损失和权重摄动等增强策略,以解决现有方法在训练大型机器学习模型时存在的问题。实验结果表明,该方法在各种规模、大小和分辨率的数据集上明显优于之前的方法。
Oct, 2023
本文提出了一种基于优化算法的 Flat Trajectory Distillation(FTD)方法来缓解 distortion 和 subsequent evaluation 之间的累积轨迹误差,实验证明该方法可提高梯度匹配方法的性能,并适用于神经架构搜索。
Nov, 2022
用单层优化的对抗性框架,从大型原始数据集中提取关键信息以合成更小的精简数据集并保持效果,可以在最小的 GPU 内存消耗下获得高测试准确率并在跨架构泛化中表现出优越性。
Dec, 2023
我们提出了一种新的医学图像数据集精华方法,通过设计新的渐进轨迹匹配策略提高了医学图像数据集精华的训练稳定性,并通过动态消除不同图像之间的重叠来改善合成数据集的多样性和最终性能,进而在各种模态和配置上建立了一个新的医学图像数据集精华基准,实验证明我们提出的方法相比之前的最先进方法平均提高了 8.33%,当 ipc=2 时,提高了 11.7%。
Mar, 2024
通过使用逐步数据集提取方法,这篇研究论文提出了一种在训练期间使用多个合成子集来捕捉深度网络的训练动态,并在不增加训练时间的情况下显著改善现有数据集提取方法的性能,同时还首次实现了生成更大的合成数据集。
Oct, 2023
通过对目标函数进行简单的转换和利用 MCT (Matching Convexified Trajectory)方法,研究论文发现 MTT 方法存在的三个主要问题:Stochastic Gradient Descent(SGD)生成的专家轨迹不稳定,提取过程的收敛速度慢以及专家轨迹的存储消耗高,并提出了一种能够快速且稳定地引导学生网络收敛的方法。实验结果显示,MCT 方法在三个公共数据集上相较于传统的 MTT 方法具有优越性。
Jun, 2024
本文中,我们探讨了数据集蒸馏的另一种形式,即基于固定模型的数据集蒸馏,通过使用少量的数据点近似原始数据的训练模型,此方法相对于其他方法具有优势,并在多个数据集上进行了实验证明
Nov, 2018