May, 2024

基于参数容易受损强化和修剪的卷积神经网络的成本效益容错

TL;DR本文介绍了一种适用于卷积神经网络的模型级加固方法,通过将纠错直接集成到神经网络中来提高其容错性。该方法与硬件无关且不需要对底层加速器设备进行任何更改。通过分析参数的脆弱性,该方法能够复制一些选择性的滤波器 / 神经元,以便通过高效且稳健的纠错层有效地对其输出通道进行纠正。该方法与基于 TMR 的修复几乎具有相当的容错性能,但开销显著减少。此外,还提出了一种基于参数脆弱性的经济实惠的剪枝技术,优于传统的剪枝方法,能够生成更小且精度损失可忽略的网络。值得注意的是,经过加固的剪枝型卷积神经网络的性能比经过加固但未剪枝的网络快达 24%。