Oct, 2024

代码混合:测量多语言大型语言模型的能力的新方法

TL;DR本研究针对多语言大型语言模型在代码混合(即在一次发言中混合多种语言)的机器翻译能力不足的现状,提出了一种新的规则基础提示技术。研究发现,尽管通过k-shot提示($k\in\{0, 1, 10, 20\}$)通常能取得最佳效果,但规则基础提示在生成独特的代码混合句子方面展现出潜力,并创建了涵盖五种语言对的黄金标准代码混合数据集。