Mirage:模型无关的图形蒸馏方法用于图形分类
本文中,我们探讨了数据集蒸馏的另一种形式,即基于固定模型的数据集蒸馏,通过使用少量的数据点近似原始数据的训练模型,此方法相对于其他方法具有优势,并在多个数据集上进行了实验证明
Nov, 2018
用单层优化的对抗性框架,从大型原始数据集中提取关键信息以合成更小的精简数据集并保持效果,可以在最小的 GPU 内存消耗下获得高测试准确率并在跨架构泛化中表现出优越性。
Dec, 2023
本文探讨了各种数据蒸馏技术,包括基于生成式教学网络、梯度匹配和隐函数定理的新方法,实验表明这些新方法比以前的方法更具计算效率并提高了在 MNIST 图像分类问题上训练模型性能。
Mar, 2022
使用知识蒸馏技术将图神经网络(GNNs)和多层感知器(MLPs)相结合,提出了无图依赖的神经网络 GLNNs,并在 7 个数据集的生产环境中证明其比 GNNs 更快且准确率接近,适用于延迟受限的应用程序。
Oct, 2021
本研究提出了一种新的数据蒸馏方法,使用该方法在文本分类中将大型训练数据集压缩为更小的合成数据集,结果显示使用压缩后的数据集,在保持准确度的前提下只占原始数据集的 0.1%,获得了 90% 左右的性能。
Apr, 2021
无需师生模型或图神经网络,纯基于多层感知器的图自蒸馏 (TGS) 框架在训练中利用结构信息进行自知识蒸馏,从而在推理中无数据依赖,显著提高了多层感知器的性能,并在六个真实数据集上超过最先进的图知识蒸馏算法。此外,TGS 的推理速度比现有 GNNs 快 75 倍至 89 倍,比传统推理加速方法快 16 倍至 25 倍。
Mar, 2024
本研究提供了一种新的算法,使用合成数据集优化网络,可以快速、高效地将神经网络训练到与真实数据相似的状态,从而实现数据集精简化处理,并能够处理高分辨率视觉数据。
Mar, 2022
本文提出了基于邻近差异率(NDR)的自适应差异保留(ADR)正则化器以加强知识的传递,进而提出了一种基于 GNN-SD 框架的通用图神经网络知识蒸馏方法,它在减少训练成本的同时实现了领先的蒸馏效果,并为多种流行的骨干网路提供了一致有效的性能增强。
Nov, 2020
利用生成式文本到图像模型的最新进展,我们引入了数据集精炼使用扩散模型 (D3M) 作为一种新的数据集精炼范式。通过文本反演技术,我们利用学习到的文本提示为大型数据集创建简洁且有信息量的表示,以在固定的内存预算内有效地存储和推理新样本,并通过在不同内存预算下在各种计算机视觉基准数据集上进行的广泛实验验证了我们方法的有效性。
Mar, 2024