SPT 模型能够通过选择性提示调整语言模型以实现个性化对话,大幅提高响应的多样性,并改善其他关键性能指标,从而在促进吸引人和个性化对话生成方面显示出高效性。
Jun, 2024
自动选择给定输入的最佳提示,克服手动设计有效提示的挑战,通过聚类训练数据、生成候选提示、生成输入 - 提示 - 输出数据集以训练评估器,并使用评估器在测试时选择最佳提示来实现兼顾通用性和特异性的方法。在零 - shot 问答数据集上显示出竞争性性能。
Apr, 2024
SPT 是一种半参数化的提示微调方法,其包含一个内存库,可以根据离散提示检索记忆提示,并通过 Fine-Tuning GLUE 数据集以及在五个自然语言处理任务类别下评估零 - shot 泛化以及在 SuperGLUE 数据集上预训练,众多实验证明了其有效性。
Dec, 2022
本文介绍了一种利用大型语言模型作为数据增强工具的技术,即利用软提示的混合模型进行参数有效的数据生成,并通过去噪机制提高生成数据的质量,此方法能够在复杂预测任务中实现对标签语义的保留,达到优于强基准的最新结果。
Mar, 2023
通过提出多维任务提示学习方法(MTPrompt),将更多的任务相关信息嵌入提示中,以激发大型语言模型中嵌入的知识,从而实现在少样本和五个不同数据集上取得最佳结果,并在不同实验设置和削减实验中展示了该方法的有效性和稳定性。
Dec, 2023
GPT-4 在具有可控问题难度的三个算法任务中通过先进的提示技术展现了优越的准确性,证明了先进的大型语言模型在需要系统化泛化的挑战性任务中具备很强的基准性能。
Feb, 2024
通过引入 Hint-before-Solving Prompting (HSP) 方法,将高质量提示应用于大型语言模型的解题过程,有效地提高了推理任务的准确性,并建立了 HSPMATH 数据集,提高了解题准确性。
通过 Prompt2Model 方法,可以使用少量的提示,训练出性能优异、体积小 700 倍的特定目的模型,用于自然语言处理任务。
Aug, 2023
本研究通过利用双语词典的先验知识提供提示,提出了一种新的 DiPMT 方法,可以有效解决 LLM 在低资源机器翻译和领域转移情况下难以翻译生僻词的问题,并且实验结果表明 DiPMT 能够提高 LLM 的翻译性能。
Feb, 2023
本文研究了自动提示技术在六个不同的下游任务和更广泛的 K-shot 学习场景中的应用。我们发现,自动提示并不总是优于简单的手动提示。我们的研究表明,在这一领域的研究中,除了 fine-tuning 之外还应该使用手动提示作为基线。
Apr, 2023