关键词parameter efficient finetuning
搜索结果 - 2
- MAPLE: 多语言大语言模型参数高效微调的评估
通过参数高效微调能够提高大语言模型的性能,而无需大量的资源和计算。对多语言评估的先前研究表明,英语和其他语言在性能上存在很大差距。此外,开源模型和较大规模的语言模型之间也存在差距。微调是弥合差距、使语言模型更加公平的有效方法。本研究通过对合 - 基于交叉熵差异的场景内演示选择
本研究提出了一个基于交叉熵差异的方法,用于选择上下文演示文稿以提高语言模型的性能。该方法基于该观察结果:在特定演示文稿上进行微调的语言模型在测试样例上的困惑度与上下文演示的有效性呈负相关。研究者评估了该方法在混合域数据集上的表现,并表明该方