本文介绍了一种基于贝叶斯模型的 MARS 方法,通过训练学习二进制掩码自动选择张量分解的最佳秩,可嵌入标准的神经网络训练过程中,实现在不同任务中比以前更优秀的结果。
Jun, 2020
基于训练后的秩选择方法 Rank-Tuning,结合训练适应性,我们的方法能够实现高压缩率而无性能损失或性能损失较小,数值实验结果表明,我们可以将循环神经网络压缩至最多 14 倍,最多相对性能降低 1.4%。
Oct, 2023
本文提出了一种通过组合优化实现网络复杂度最小化以及保持精度不变的方案,利用线性近似的精度函数预测了优化后 CNN 模型的精度,并在 AlexNet 和 VGG-16 上的实验结果表明,与截断 SVD 算法相结合,我们提出的排名选择算法在推理和训练时间方面优于现有技术。
Jun, 2018
本文探讨了基本的张量网络模型和相关算法,尤其是使用新的数学和图形表示的张量列车(TT)分解。通过张量化和使用量子化张量列车网络实现数据的超级压缩,对大规模数据优化问题进行了分布式表示,并通过优化迭代和近似张量缩并的方式,应用小型矩阵和张量运算来解决一系列难以用经典数值方法解决的问题,例如广义特征值分解,主成分分析 / 奇异值分解和规范相关分析。
Jul, 2014
通过动态参数排除,我们提出了一种用于卷积神经网络压缩的高效训练方法,使用奇异值分解(SVD)对低秩卷积滤波器和密集权重矩阵进行建模,并通过端到端的反向传播训练 SVD 因子。我们的方法在各种现代卷积神经网络和计算机视觉数据集上进行评估,并展示了它在分类性能上的适用性。实验证明,该方法能够在保持或提高分类性能的同时实现显著的存储节省。
Jan, 2024
该研究论文综述了六种张量分解方法及其在神经网络中的应用,说明使用这些方法可以明显地减少模型的大小,运行时间和能耗,在边缘设备上实现神经网络时效果显著。
Apr, 2023
本文介绍了一种名为 Decomposable-Net 的深度神经网络压缩方法,通过奇异值分解和调整矩阵秩,允许灵活改变模型大小,而无需进行微调,能够在多种模型大小下提高模型性能。
Oct, 2019
该研究提出了张量神经网络,利用高阶张量操作解决参数学习的难题,并实现了对高阶输入对象的自然处理,同时利用训练方法和压缩技术在精度和效率上均有提升。
May, 2018
本文提出了 HEAT 硬件感知张量分解框架,通过硬件感知的协同优化,实现了对参数冗余的降维和的自动调节,能够达到更好的能效比和精度。
Nov, 2022
本文提出一种基于张量分解的模型压缩系统,采用交替方向乘子法进行优化求解。该系统适用于卷积神经网络和循环神经网络,可大幅降低计算量和参数量,并保持较高的准确性。
Jul, 2021