本文研究 NLP 中使用预训练语言模型(PLM)的结构化预测问题,描述了一种基于 PLMs 的结构建模方法,在命名实体识别、端到端关系提取和指代消解三个任务上实现了最新的最优性能。
Oct, 2022
通过结构约束和组合推理,我们构建了一种基于提示的方法用于零和少样本的语言结构预测,在两个结构预测任务和五个数据集上的结果表明,强制一致性不仅构建了结构上有效的输出,而且还改善了性能。
Jan, 2024
在这项研究中,我们调查了不同规模、预训练和指导调优的 LLMs 在在语义上等效但语言结构不同的提示上的性能,发现 LLMs 的性能不能通过困惑度、词频、歧义或提示长度来解释,并提出了对提示研究更健壮和综合的评估标准的建议。
Nov, 2023
该研究介绍了分解提示方法,用于探究英语为中心的大型语言模型在序列标注任务中对语言结构的理解能力,其研究结果表明分解提示优于迭代提示基线,在零样本和少样本情况下具备更高的效用和效率,并发现评估方法和提示中的指令使用对结果有影响,同时发现英语为中心的语言模型在多语言任务中表现优于多语言模型,从而对英语为中心的语言模型的多语言可迁移性进行了深入研究,为了解其多语言语言知识做出了贡献。
Feb, 2024
将 LLaMa 适应于 Kinyarwanda、Hausa 和 Luganda 等低资源语言的提示设置是一种计算高效且成本效益的方法,优于翻译和 LAFT,并在所有任务和语言上表现最佳。
Mar, 2024
提出基于任务语义角度构建的语境提示学习模型 STPrompt,其中两种基于语义依存关系树和任务特定元数据描述的新型提示被构建到提示增强池中,能自动选择合适的语义提示来激发提示学习过程,并在五种不同的少样本文本分类数据集上取得了最先进的性能。
本文提出了一种基于预训练语言模型的无参考学习方法 NPPrompt,能够有效扩展一个预训练模型到多个语言理解任务,且不需要标注数据或附加未标注语料库进行微调。实验结果表明,NPPrompt 在文本分类和 GLUE 基准测试等任务中具有比以前最好的全零样本方法更高的绝对增益。
Dec, 2022
本研究提出了一种基于位置 - 注意机制的方法,避免了构造多种不同的提示模板。使用生物医学预训练语言模型,实验结果显示我们的方法能更好地填补掩码,对罕见提示模板的回答(如后缀和混合模式)更为有效。
Mar, 2022
自回归大语言模型已经改变了自然语言处理领域的格局。基于预训练和提示范式的方法已经取代了常规的预训练和微调方法用于许多下游自然语言处理任务。本文讨论了已经在自回归大语言模型上使用的各种提示技术,提供了一个基于这个分类体系的简明调研,并且确定了自回归大语言模型中提示领域的一些未解决问题,可作为未来研究的方向。
利用自动化方法生成的 AutoPrompt,我们展示了预训练语言模型在自然语言推理、情感分析和关系提取方面的潜在能力,以及自动生成的提示方法是现有探究方法的一个可行的无参数替代方法。
Oct, 2020