通过分析压缩数据集技术对隐私、模型鲁棒性和公平性的影响,本文提出了一个评估这一技术的大规模基准测评框架。
May, 2023
采用一种新的分布式基于核的元学习框架,使用无限宽的卷积神经网络,在数据集压缩中实现前沿的结果,通过对 MNIST,Fashion-MNIST,CIFAR-10,CIFAR-100 和 SVHN 等多个数据集的数据压缩进行初步分析,为数据如何与自然发生的数据不同提供了一些启示。
Jul, 2021
基于核方法的数据集精简是数据效率提升的一种潜在手段,本研究通过理论研究与实验分析,提出了专门用于数据集精简的两种新的基于理论的触发器模式生成方法,证明了我们的基于优化的触发器设计框架可以有效地实施反向攻击,并验证了使用我们方法开发的触发器在执行弹性反向攻击方面的熟练程度。
Nov, 2023
用单层优化的对抗性框架,从大型原始数据集中提取关键信息以合成更小的精简数据集并保持效果,可以在最小的 GPU 内存消耗下获得高测试准确率并在跨架构泛化中表现出优越性。
Dec, 2023
本研究介绍了新型攻击算法,证明了防御蒸馏并不能显著提升神经网络的强度,提供了高置信度的对抗性样本用于简单的可迁移性测试,该测试可以用于破解防御蒸馏。
Aug, 2016
本文提出了一种在数据集精馏中初始化样品集的可证明的基于采样的方法,并将数据子集选择的思想与数据集精馏相结合,通过相对贡献的实例的概念优化性能。
Jul, 2023
本研究介绍了一种防御机制,名为防御蒸馏,用于减少对深度神经网络的对抗样本的影响,并通过理论和实验证明了该机制在培训深度神经网络时具有通用性和鲁棒性。
Nov, 2015
本文中,我们探讨了数据集蒸馏的另一种形式,即基于固定模型的数据集蒸馏,通过使用少量的数据点近似原始数据的训练模型,此方法相对于其他方法具有优势,并在多个数据集上进行了实验证明
Nov, 2018
通过使用逐步数据集提取方法,这篇研究论文提出了一种在训练期间使用多个合成子集来捕捉深度网络的训练动态,并在不增加训练时间的情况下显著改善现有数据集提取方法的性能,同时还首次实现了生成更大的合成数据集。
Oct, 2023
本研究提出了一种基于参数剪枝的数据集精简方法,可以通过删除难以匹配的参数来产生更强韧的数据集,提高精简效果和性能,实验结果表明该方法优于其他现有技术。
Sep, 2022