Sep, 2023
PEFTT: 低资源藏语预训练语言模型的参数高效微调
PEFTT: Parameter-Efficient Fine-Tuning for low-resource Tibetan pre-trained language models
Zhou Mingjun, Daiqing Zhuoma, Qun Nuo, Nyima Tashi
TL;DR我们进行了针对藏语(一种低资源语言)的有效微调策略研究,包括信息提示微调、轻量级适配器微调和信息提示微调 + 适配器微调,实验证明这些方法在预训练模型中显著提高了效果,为提升藏语应用提供了有价值的见解。