野外文本分类中的标签模块提示学习
TransPrompt v2 是一种具有传递性的促进框架,用于跨相似或远距离文本分类任务的少样本学习,通过多任务元知识获取 (MMA) 过程和两项去偏技术,该元学习器可以在多个 NLP 任务和数据集上优于单任务和跨任务强基线,并改善预先未见任务上预训练语言模型的性能,同时在使用完整训练集进行学习时也优于强调优基线。
Aug, 2023
提出了一种自适应多模式提示学习方法,通过同时考虑样本内外的泛化性和掩盖无意义的图像区域来解决当前提示学习方法存在的局限性,实验结果表明该方法在不同下游任务中优于现有方法。
Nov, 2023
本文介绍了基于知识拓展的 Prompt-learning 方法来解决短文本分类中的标签扩展问题,并在三个著名数据集上实验,结果比其他方法均取得了显著提高。
Feb, 2022
提出基于任务语义角度构建的语境提示学习模型 STPrompt,其中两种基于语义依存关系树和任务特定元数据描述的新型提示被构建到提示增强池中,能自动选择合适的语义提示来激发提示学习过程,并在五种不同的少样本文本分类数据集上取得了最先进的性能。
Oct, 2022
本文提出了一种基于多模态提示学习框架的方法,通过仅使用少量标注数据快速高效地为新颖产品生成标题,并在不同场景中进行实验证明,在仅使用 downstream 标签数据 1% 的情况下,该方法实现了最佳 few-shot 学习效果,甚至与完全监督的方法相比也具有竞争力。
Jul, 2023
本文提出了 PromptClass 方法,它使用预训练语言模型通过零样本提示获取基于上下文文本理解的伪标签,同时使用两种基于 PLM 微调的策略迭代地训练分类器和更新伪标签,实验结果表明,PromptClass 在四个基准数据集上实现了优异的表现,并在情感分类任务上实现了与全监督分类器相似的性能。
May, 2023
提出了分解提示法(Decomposed Prompting)的方法,通过将复杂任务分解成简单的子任务来解决复杂任务,并且可以针对每个子任务优化其专用提示,进一步分解复杂任务并取得更好的性能,特别是在符号推理任务和多步推理任务中。
Oct, 2022
本论文提出了一种特化 - 泛化训练策略 Match-Prompt,旨在帮助模型在不同的文本匹配任务中学习到本质的匹配信号,从而改善 Pre-trained Language Models 的多任务泛化能力和适应性。实验结果表明,Match-Prompt 在多个公共数据集上优于传统的 fine-tuning 策略。
Apr, 2022
通过提出多维任务提示学习方法(MTPrompt),将更多的任务相关信息嵌入提示中,以激发大型语言模型中嵌入的知识,从而实现在少样本和五个不同数据集上取得最佳结果,并在不同实验设置和削减实验中展示了该方法的有效性和稳定性。
Dec, 2023
本文旨在为多语言学习提供潜在的架构改进,通过开发一种名为 Polyglot Prompting 的学习框架,利用提示方法为不同的语言和任务学习一个统一的语义空间进行多语言多任务基于提示的学习,以实现跨语言的互助和更全面的实验评估,开创了未来多语言研究的新方向。
Apr, 2022