ICMLJun, 2024

深度超参数低秩学习与调整中的可压缩动力学

TL;DR通过利用数据的固有低维结构和模型参数的可压缩动力学,我们展示了优化和泛化方面的超参数化的好处,而无需增加计算负担。在深度低秩矩阵补全和微调语言模型的实践中,我们证明了这种方法的有效性,同时保留了超参数化对性能的优势。