本文通过在人脸识别领域,将知识蒸馏模型迁移到非分类任务中,提出了一种新的模型蒸馏方法;实验证明此方法可使蒸馏后的模型在人脸对齐和人脸验证任务中达到与原模型相当的性能,并在一些具体的压缩比下超越原模型。
Sep, 2017
本研究探讨了领域自适应设置下,使用序列级别知识蒸馏训练小型、内存高效的机器翻译模型的最佳实践。该研究的大规模实证结果在机器翻译领域中(使用三个语种对三个领域进行测试)表明,最佳性能需要两次平衡知识蒸馏,一次使用通用数据,另一次使用具体领域的数据并调整教师。
Mar, 2020
使用图像识别数据集作为源域和目标域之间的桥梁,通过任务蒸馏框架,在不同仿真器之间成功地传输导航策略,并在传统领域适应基准上展现出有前途的结果。
Aug, 2020
使用模型池方法进行数据蒸馏,结合知识蒸馏技术进行测试,从而创造出小规模合成数据集,在性能上表现优于现有方法。
Feb, 2024
本文中,我们探讨了数据集蒸馏的另一种形式,即基于固定模型的数据集蒸馏,通过使用少量的数据点近似原始数据的训练模型,此方法相对于其他方法具有优势,并在多个数据集上进行了实验证明
Nov, 2018
利用生成式文本到图像模型的最新进展,我们引入了数据集精炼使用扩散模型 (D3M) 作为一种新的数据集精炼范式。通过文本反演技术,我们利用学习到的文本提示为大型数据集创建简洁且有信息量的表示,以在固定的内存预算内有效地存储和推理新样本,并通过在不同内存预算下在各种计算机视觉基准数据集上进行的广泛实验验证了我们方法的有效性。
Mar, 2024
通过使用深度学习技术和数据集蒸馏方法,我们构建了一个小型合成数据集,其中包含最具信息量的人可读的合成图像,用于进行下游分类模型训练,并获得适用于实际应用的性能表现。
Jun, 2024
本文提出了一种名为 DistillNearest 和 DistillWeighted 的多源蒸馏方法,通过利用任务相似度度量来选择单个合适的源模型以及加权多源蒸馏方法,解决了在资源受限制的情况下,通过有限标签获取高效而准确识别系统的问题。通过实验验证表明,这两种方法在准确性、计算效率等方面优于传统的迁移学习和半监督学习方法。
Apr, 2023
本研究提出了一种新的数据蒸馏方法,使用该方法在文本分类中将大型训练数据集压缩为更小的合成数据集,结果显示使用压缩后的数据集,在保持准确度的前提下只占原始数据集的 0.1%,获得了 90% 左右的性能。
Apr, 2021
针对数据集蒸馏的问题,我们提出了用合成标签来训练模型,比基于图像的方法更为有效;我们引入了更加鲁棒和灵活的元学习算法以及一种基于凸优化层的一阶策略,这种新算法可以提高模型的性能,并且可兼容各个优化器及不同的神经结构。我们的研究发现,标签蒸馏还能夸数据集应用,例如只通过合成标签的英文字母来训练以学习日文字母识别。
Jun, 2020