使用结构化提示技术,我们证明了预先训练的语言模型(PLMs)可以在零或少量样本情况下执行标记任务,而不是仅靠表面级别的词汇模式,这表明 PLMs 包含了一种通用的语言学知识表示方式。
Nov, 2022
本文研究表明,在句子对分类任务中,虽然预训练语言模型提供了低数据环境下的优势,但基于提示的微调模型仍然存在使用基于词汇重叠的推理启发式的共同缺陷,加入保留预训练权重的正则化可以缓解这种破坏性的微调倾向,并在三个挑战数据集上显示了可预期的改进。
Sep, 2021
本文探讨了如何利用未标记的数据以提高自然语言处理任务的零样本性能,并通过规范提示一致性来鼓励模型的一致预测,并取得了实验结果上的进展和成果。
Apr, 2022
本文提出了一种理论框架,以解释在零 / 少样本场景下提示学习的功效,我们进一步假设语言差异可以衡量提示的质量,并且通过基于 perplexity 的注释无关模板选择方法,使我们能够提前预测提示性能。
Sep, 2022
介绍了一种提高语言模型结构理解能力的方法,它通过预训练语言模型生成的结构来替代以往的基于任务数据的微调方式,并且在包含 28 个数据集的 10 个预测任务上实现了零样本迁移和超越了 21 个数据集的最新成果。
May, 2022
本研究提出一种无监督的精调框架,用于快速和直接地向未标记的目标数据进行深度学习模型的预训练,并在图像分类、情感分析和自然语言推理任务中实现了持续的改进。
Apr, 2023
提出基于任务语义角度构建的语境提示学习模型 STPrompt,其中两种基于语义依存关系树和任务特定元数据描述的新型提示被构建到提示增强池中,能自动选择合适的语义提示来激发提示学习过程,并在五种不同的少样本文本分类数据集上取得了最先进的性能。
Oct, 2022
本研究提出了一个基于知识注入和预训练语言模型的本体增强提示调整(OntoPrompt)方法,能够处理结构数据缺失、噪声和异质性问题,该方法在关系抽取、事件提取和知识图谱完成等三个任务中得到了比基准更好的性能。
Jan, 2022
本研究提出使用大型预训练语言模型进行弱监督学习的策略,并使用 Snorkel 系统去噪声标签,得到的训练数据可提高分类器的准确性,相比于零样本方法,错误率平均降低 19.5%。此外,该方法所得分类器的准确度相当或高于手动设置的规则。
本研究旨在解决自然语言处理的结构预测问题中限制管控的好坏与实现的关系,提出了一种基于双层整流网络的学习限制方法,可以通过学习网络的参数生成一系列线性约束,从而提高 NLP 任务的预测准确性。
May, 2020