ECCVMar, 2022

自适应补丁退出用于可扩展的单图像超分辨率

TL;DR本文提出了基于自适应补丁退出(APE)的可伸缩方法来实现更实际的加速。我们首先建议训练回归器来预测各个层的增量容量,一旦增量容量低于阈值,特定层上的补丁可以退出。此外,我们提出了一种新的策略来实现网络训练。通过不同的阈值设置,我们的方法可以轻松调整性能和效率的折衷。在各种主干,数据集和缩放因子上进行了广泛的实验证明了我们方法的优点。