ICMLJul, 2023

用于高效语言模型微调的 NTK - 逼近 MLP 融合

TL;DR通过使用神经切向核(NTK)逼近多层感知器模块(MLP)的预训练语言模型(PLM),提出了一种轻量级 PLM 压缩方法,通过重新考虑 MLP 作为子 MLP 集合并将其聚类为给定数量的重心,进而恢复为压缩的 MLP,惊人地显示出良好逼近原始 PLM 的 NTK。