Jun, 2024

DistiLRR:低资源编程语言的代码修复迁移

TL;DR使用大型语言模型(LLMs)进行代码修复可以在高资源语言和低资源语言上实现较好的性能表现,但低资源语言中的代码修复效果受到了深知识缺乏的基础模型的限制。我们提出了一种名为 DistiLRR 的方法,通过从教师模型到学生模型的推理和代码生成能力转移,可以在低资源语言中获得比基线模型更好的性能。研究结果显示 DistiLRR 在低资源语言上始终优于基线模型,但在高资源语言上性能相似。我们经过进一步分析,发现了解释质量与代码正确性之间的相关性较弱,这种弱点在低资源环境中被放大,因为基础模型缺乏对编程语言的深入知识,导致代码修复在高资源和低资源语言之间的效果存在差异。