MSP: 提升预训练语言模型翻译表现的多阶段提示方式
我们引入了一种多阶段提示方法(MSP)用于生成多项选择题(MCQs),借助于文本戴文西 - 003 和 GPT-4 等 GPT 模型的能力,这些模型在各种自然语言处理任务中表现出色。我们的方法融合了连贯思维提示的创新概念,这是一种渐进式技术,通过一系列相互连接的提示引导 MCQ 生成过程。自动评估一致展示出我们提出的 MSP 方法在传统的单阶段提示(SSP)基线之上的优越性,从而生成高质量的干扰项。此外,一次性的 MSP 技术提高了自动评估结果,在包括英语、德语、孟加拉语和印地语在内的多种语言中改善了干扰项生成。在人工评估中,使用我们的方法生成的问题展现出更高水平的语法正确性、可答性和难度,突显了它在各种语言中的有效性。
Jan, 2024
本文介绍了一种利用大型语言模型作为数据增强工具的技术,即利用软提示的混合模型进行参数有效的数据生成,并通过去噪机制提高生成数据的质量,此方法能够在复杂预测任务中实现对标签语义的保留,达到优于强基准的最新结果。
Mar, 2023
基于多语言预训练模型,通过提示学习的跨语言转移已显示出有希望的有效性,其中在低资源情景中,从源语言到目标语言的软提示转移到下游任务中。为了有效地转移软提示,我们提出了一个新颖的框架 —— 多语言提示翻译器(MPT),通过引入多语言提示翻译器来适当处理嵌入在提示中的重要知识,同时保留任务知识。在 XNLI 的少样本设置中,MPT 表现出了比基线方法更突出的改进,当转移到与源语言相当不同的语言时,MPT 比普通提示更为突出。
Mar, 2024
利用翻译记忆作为提示是一种有前途的机器翻译模型上下文学习方法,本文通过使用大型语言模型进行提示,发现 LLM 的‘理解’提示的能力确实有助于更好地利用 TMs,并通过实验证明,使用高质量的 TM 提示可以大大改善预先训练的 LLM 翻译器的结果,甚至可以与最新状态下大规模领域内双语数据和针对下游任务进行调整的 NMT 系统的结果相媲美。
May, 2023
通过研究生成式大型语言模型在机器翻译中的性能,我们发现多语言模型(如 PaLM)在人工翻译输出方面表现出类似人类的水平,能够根据样式指南和语言要求优化所需的翻译细微差别,并在处理和应用提示上表现出色。我们还针对流行的语言模型作为机器翻译工具的错误和限制进行了分类和提出了设计提示进行上下文学习的方法。通过改进评估指标的准确性和可靠性,我们的研究旨在促进生成式大型语言模型在机器翻译中的进步。
Jan, 2024
通过提出多维任务提示学习方法(MTPrompt),将更多的任务相关信息嵌入提示中,以激发大型语言模型中嵌入的知识,从而实现在少样本和五个不同数据集上取得最佳结果,并在不同实验设置和削减实验中展示了该方法的有效性和稳定性。
Dec, 2023
本研究提出了一种名为 SAP 的技术,旨在使双向语言模型具有提示功能。利用机器翻译任务作为案例研究,我们使用 SAP 提示双向 mT5 模型,并证明其少量示例和零量示例的翻译性能优于 unidirectional 模型,同时展示了 SAP 在问答和摘要生成中的有效性,证明提示学习是更广泛的语言模型类别的新兴属性而不仅仅是单向模型的特征。
Sep, 2022
本文旨在为多语言学习提供潜在的架构改进,通过开发一种名为 Polyglot Prompting 的学习框架,利用提示方法为不同的语言和任务学习一个统一的语义空间进行多语言多任务基于提示的学习,以实现跨语言的互助和更全面的实验评估,开创了未来多语言研究的新方向。
Apr, 2022