计算病理学中的结构模型修剪以提高推理效率
应用机器学习进展于医疗可以改善患者结果,但是模型操作复杂性、遗留硬件和多模态千兆像素图像等问题限制了实时、设备内推理的部署。我们考虑滤波剪枝作为解决方案,在心脏病学和眼科学中探索分割模型。我们的初步结果显示最高可达 1148 倍的压缩率,质量损失最小,强调使用现成模型时应考虑任务复杂性和架构细节。在高压缩率下,滤波剪枝模型在 CPU 上比 GPU 基准具有更快的推理速度。我们还证明了这些模型的鲁棒性和泛化特性超过了基准和权重剪枝对照组。我们揭示了引人深思的问题,迈出了实现经济有效的疾病诊断、监测和预防解决方案的一步。
Sep, 2023
本文探讨在资源受限环境下,通过模型剪枝来压缩神经网络模型的方法,提出了一种简单、直接、易于应用的逐渐剪枝技术,并在多个模型 / 数据集上进行了比较,发现大型稀疏模型在保持较高精度的同时可减少 10 倍的参数数量。
Oct, 2017
通过剪枝实现减少模型存储和计算操作,防止 Deep Learning 或 Deep Neural Networks (DNNs) 的隐私泄露,提高 DNNs 的抗干扰性和准确性
Aug, 2020
本研究提出了利用网络压缩的方法来解决深度学习模型在资源有限的系统中的应用难题,并利用迭代剪枝技术使压缩后的网络更加高效和精确。实验证明该方法在与现有方法进行比较时在相同剪枝等级下表现更佳。
Feb, 2019
该研究系统地调查和表征神经网络剪枝在计算机视觉中引起偏差的现象,提出基于未压缩模型的易于使用的标准,以确定裁剪是否会增加偏差,并确定在压缩后最容易受到偏差预测影响的样本。
Apr, 2023
本研究使用 VGG-16 模型作为示例,测量了各种结构模型修剪方法和数据集(CIFAR-10 和 ImageNet)在 Tensor Processing Units(TPUs)上的准确性和效率之间的权衡,使用 TensorFlow2 开发了一个结构模型修剪库以在 TPUs 上显着提高模型内存使用和速度而不失准确性,这尤其适用于较小的数据集(如 CIFAR-10)。
Jul, 2021
本文提出了 PQ Index (PQI) 作为衡量深度神经网络可压缩性的量化指标,并基于此开发了一种基于稀疏性信息的自适应裁剪算法 (SAP),该算法在压缩效率和稳健性方面优于遗传算法等迭代型裁剪算法。
Feb, 2023
利用结构化剪枝技术,Reconvene 系统可快速生成适用于边缘部署的经剪枝模型,大小减小了 16.21 倍,速度加快 2 倍,同时保持与未经剪枝的模型相同的准确性。
Apr, 2024
本文提出了一种新型的卷积神经网络压缩算法,通过利用网络层级复杂性,设计了三种剪枝模式:参数感知型、浮点运算量感知型和内存感知型,以在低功耗设备上实现高效率的模型压缩和加速,并在智能农业,智能医疗和智能工厂等应用中表现出了极高的性能表现。
Aug, 2022
深度学习算法在提高人类任务自动化能力方面发挥了重要作用,然而,这些模型性能的巨大提升与其日益复杂性高度相关,限制了它们在以人为本的应用中的实用性,而这些应用通常部署在资源受限的设备上。因此,我们需要压缩技术来大幅减小深度学习模型的计算和内存成本,同时又能保持较高的性能。本文通过对模型压缩技术的综述,特别关注量化、知识蒸馏和修剪等方法在生物特征识别应用中的应用,从而对该领域的研究现状进行了系统化总结。我们对这些技术的比较价值进行了关键分析,着重讨论了它们的优点和缺点,并提出了进一步研究方向的建议,以改进当前的方法。此外,我们还讨论和分析了模型偏见与模型压缩之间的联系,强调了未来的研究需要将压缩技术引向模型公平性的方向。
Jan, 2024