Mar, 2024

序列学习神经网络的函数空间参数化

TL;DR通过将神经网络从权重空间转化为函数空间的双参数化技术,我们解决了渐进学习方法在深度学习中的挑战,包括融入新数据和保留先前知识等问题。该技术在大规模数据集上通过稀疏化实现了函数空间方法的可扩展性,同时在有限访问过去数据时保留先前知识,并且在不需重训练的情况下融合新数据。我们的实验表明,我们能够在持续学习中保留知识并高效地融入新数据。此外,我们进一步展示了该技术在不确定性量化和基于模型的强化学习中的优势。详情和代码可在项目网站上找到。