Jan, 2024

知识转化:模型压缩的新途径

TL;DR通过知识翻译 (KT) 框架,利用神经网络将不同大小的模型进行转换以减少深度学习模型的训练、推理和存储开销,并通过数据增强策略在有限训练数据的情况下提高模型性能,成功展示了在 MNIST 数据集上的可行性。