本文研究了三种Prompt(包括Human-designed,Schema以及Null prompt)在有监督/无监督场景下的有效性,最终发现Schema prompt可以提高训练效果,且随着数据规模的扩大,不同Prompt的表现越来越接近。
Mar, 2022
本文提供了一种系统方法来衡量LLMs在多语言环境下的表现差异,探讨了LLMs的跨语言概括现象,结果表明GPT在多语言环境下表现出高度翻译一致的行为。
May, 2023
本文提出了一种无监督提示方法,使用高资源语言的合成样本以在低资源语言上进行多语言总结,并且表明该方法在许多低资源语言上胜过有监督的提示。
Jun, 2023
该论文综述了大型语言模型在自然语言处理任务中的重要性,并聚焦于不同类型的提示(如离散、连续、少样本和零样本)及其对模型性能的影响。论文探讨了手动设计、优化算法和评估方法等多种提示设计方法,以优化模型在不同任务中的性能。此外,论文还讨论了评估提示性能所面临的挑战,并指出了提示设计在充分利用大型语言模型的潜力中的关键作用,为在自然语言处理任务中更有效、更高效地使用大型语言模型提供了启示。
Sep, 2023
在这项研究中,我们调查了不同规模、预训练和指导调优的LLMs在在语义上等效但语言结构不同的提示上的性能,发现LLMs的性能不能通过困惑度、词频、歧义或提示长度来解释,并提出了对提示研究更健壮和综合的评估标准的建议。
Nov, 2023
通过研究生成式大型语言模型在机器翻译中的性能,我们发现多语言模型(如PaLM)在人工翻译输出方面表现出类似人类的水平,能够根据样式指南和语言要求优化所需的翻译细微差别,并在处理和应用提示上表现出色。我们还针对流行的语言模型作为机器翻译工具的错误和限制进行了分类和提出了设计提示进行上下文学习的方法。通过改进评估指标的准确性和可靠性,我们的研究旨在促进生成式大型语言模型在机器翻译中的进步。
Jan, 2024
采用系统性方法对大型语言模型的提示技术进行分类,通过举例说明实际应用,为从业人员提供一个结构化的理解和分类提示技术的框架,以便更有效地利用大型语言模型的各种应用领域。
Feb, 2024
将LLaMa适应于Kinyarwanda、Hausa和Luganda等低资源语言的提示设置是一种计算高效且成本效益的方法,优于翻译和LAFT,并在所有任务和语言上表现最佳。
Mar, 2024
大型语言模型在低资源语言上的自然语言处理任务上表现较差,并提供了错误分析和实例解释。
Apr, 2024
通过总结44篇研究论文,本文讨论了大型语言模型在各个自然语言处理任务中的提示工程技术,包括39种不同的提示方法在29个不同的任务上的性能表现、使用的语言模型以及对特定数据集的可能最先进技术,并提供了任务分类图。
Jul, 2024