Aug, 2023

参数高效技术与完全微调之间的比较:多语言新闻文章分类案例研究

TL;DR适配器和低秩适应(LoRA)是旨在使语言模型训练更加高效的参数节约微调技术。本研究通过调查这些技术在多语言文本分类任务中(流派、框架和说服技巧检测;具有不同输入长度、预测类别数量和分类难度;其中一些任务数据有限)与全面微调相比,对分类性能和计算成本的影响,补充了现有研究。此外,我们对不同训练场景(在原始多语言数据上训练;在英文翻译上训练;以及在部分仅英文数据上)和不同语言进行了彻底分析,为参数节约微调技术的适用性,特别是对复杂的多语言和多标签分类任务提供了有价值的见解。