点击率预测的统一低秩压缩框架
本研究提出一种深度学习模型的压缩方法,利用低秩矩阵因式分解来压缩自然语言处理中的字词嵌入层,经过实验证明可以在 90% 的压缩比下保持精度不受影响,并且在句子分类任务上表现优于其他方法,同时还引入了一种新的学习率调度算法 CALR,其在句子分类基准测试中表现出优越性。
Nov, 2018
我们提出了一种基于减少存储量直接张量环分解(RSDTR)的新型低秩 CNN 压缩方法,该方法具有更高的循环模排列灵活性,并以较大的参数和 FLOPS 压缩率为特点,同时保持压缩网络的良好分类准确性。与其他最先进的 CNN 压缩方法相比,对 CIFAR-10 和 ImageNet 数据集进行的实验证明了 RSDTR 的高效性。
May, 2024
本文提出了一种名为 “置信度排名” 的新型框架,使用两个不同的模型以排名函数的形式设计优化目标,允许针对不同凸代理函数的评估指标进行直接优化,例如 AUC 和 Accuracy。实验结果表明,引入置信度排名损失后,可以在公共和工业数据集的 CTR 预测任务上胜过所有基线,该框架已在 JD.com 的广告系统中部署以提高精细排名阶段的主要流量表现。
Jun, 2023
这篇论文提出了一种用于加速 CNNs 的基于张量分解的技术,并且发现使用降秩限制的 CNNs 除了速度更快之外,有时候性能也表现更好,在进行了对比测试后,尤其是对于 VGG-16 模型,在性能无损的同时,前向传播时间可以缩短一半,从而证明低秩张量分解在加速大型 CNNs 方面是非常有用的工具。
Nov, 2015
通过动态参数排除,我们提出了一种用于卷积神经网络压缩的高效训练方法,使用奇异值分解(SVD)对低秩卷积滤波器和密集权重矩阵进行建模,并通过端到端的反向传播训练 SVD 因子。我们的方法在各种现代卷积神经网络和计算机视觉数据集上进行评估,并展示了它在分类性能上的适用性。实验证明,该方法能够在保持或提高分类性能的同时实现显著的存储节省。
Jan, 2024
本研究提出 Deep Multi-Representation (DeepMR) 模型,通过联合训练 DNN 和多头自注意力这两种功能强大的特征表示学习组件,以及使用零初始化的残差连接(ReZero)来提高输入表示的性能,在三个真实数据集上的 CTR 预测任务中超越了所有现有的最先进模型。
Oct, 2022
本文提出了一种通过组合优化实现网络复杂度最小化以及保持精度不变的方案,利用线性近似的精度函数预测了优化后 CNN 模型的精度,并在 AlexNet 和 VGG-16 上的实验结果表明,与截断 SVD 算法相结合,我们提出的排名选择算法在推理和训练时间方面优于现有技术。
Jun, 2018
大规模语言模型的压缩方法如量化和参数修剪在减小模型的内存占用和流量上进行了积极探索,本研究通过对低秩分解方法,特别是 Tucker 分解,在近期语言模型上的研究,包括一个开源的语言模型 Llama 2,详细分析和评估了准确性和效率之间的平衡,结果表明在模型减小 9% 的情况下,最小的准确率下降为 4% 到 10%,此研究表明低秩分解可以成为大规模语言模型应用的有前途的方向。
May, 2024
近年来,大型语言模型(LLMs)在自然语言处理方面取得了重要进展,但其规模的增大增加了计算负担,需要在效率和性能之间取得平衡。为了解决 LLMs 中低秩压缩的挑战,我们对大模型的低秩特性进行了实证研究,并提出了一种适用于 LLMs 的低秩压缩方法,该方法通过汇总协方差矩阵的特征分布精确估计和贝叶斯优化策略来分配低秩维度。我们在 LLaMA-2 模型上的实验表明,我们的方法在相同的压缩比下比现有的强结构剪枝和低秩压缩技术表现更佳,能够保持模型的性能。
May, 2024
C3 是一种神经压缩方法,通过对每个图像或视频进行过度拟合从而获得强大的率失真性能,其解码复杂度与其他具有相似率失真性能的神经模型相比可降低一个数量级。C3 在 COOL-CHIC 的基础上进行改进,并且还开发了将 C3 应用于视频的新方法。在 CLIC2020 图像基准测试中,我们将 C3 解码的每个像素的 MAC 数减少到不足 3k,与 H.266 编解码器的 VDH 性能相当。在 UVG 视频基准测试中,我们将 C3 解码的每个像素的 MAC 数减少到不足 5k,与 Video Compression Transformer 的 VDH 性能相当。
Dec, 2023