Oct, 2024

基于预算的在线持续学习:自适应层冻结和基于频率的采样

TL;DR本研究针对在线持续学习中不同计算和存储预算对算法公平比较的影响,提出了浮点运算(FLOPs)和总存储大小作为度量标准。通过自适应层冻结和改进的记忆检索方法,能够在有限的资源预算内显著提升学习效率和性能,实验证明该方法在多项数据集上优于现有技术。