基于 Continuous Prompt Tuning 的文本蕴含模型在电子商务实体类型识别中的应用
本文提出了 Prompt-based Text Entailment (PTE) 低资源命名实体识别技术,将命名实体识别作为文本蕴含任务,并使用 Pre-trained Language Models 和 entity type-specific prompts 来获得高性能。通过在 CoNLL03 数据集和 MIT Movie 及 Few-NERD 数据集上进行的实验,结果表明该方法 PTE 在低资源场景下的表现优于微调的对照组。
Nov, 2022
本文探讨了使用 cloze 风格的语言提示刺激预训练语言模型的通用知识,并在完全监督、few-shot 和 zero-shot 情况下,根据实体类型实现了细粒度实体类型的提示学习,其中包括构建面向实体的语言生成器和模板,进一步提出的一种自监督策略可以在提示学习中进行分布级别的优化,从而自动总结实体类型的信息,并表明当训练数据不足时,prompt-learning 方法明显优于 fine-tuning 基线。
Aug, 2021
本文提出了一种新的生成式提示调整方法,将关系分类重新构造为一种填充问题,旨在解决当前提示方法的局限性,并在推理期间设计实体导向的解码和判别关系评分以有效地生成和对齐关系,并在完全监督的设置和低资源设置下展示了我们方法的有效性。
Oct, 2022
本文提出了一个新的架构,包括两个模块:(1)实体类型标签解释模块,自动学习将类型标签与词汇表相关联的方法,(2)基于类型的上下文实例生成器,根据给定实例生成新实例,以扩大训练集以获得更好的泛化能力。在三个基准数据集上,该模型的性能明显高于现有方法。
Jun, 2022
本文提出了一种双向迭代 prompt-tuning 方法用于事件论元提取,将该任务视为填空式任务以充分利用实体信息和预训练语言模型(PLMs),通过引入上下文实体的论据角色来探索事件论证交互,并利用角色标签语义知识构建语义化言化器并为 EAE 任务设计三种模板,在 ACE 2005 英文数据集上进行有效性实验。
Oct, 2022
本研究提出了将实体定位和实体类型识别整合到 prompt learning 中的双插槽多提示模板,可在平行预测插槽上提取所有实体,并设计了一种动态模板填充机制来分配插槽的标签。在各种设置下进行实验,我们的模型在交叉域 few-shot 设置中实现了显着的性能提高。
May, 2023
本文介绍了基于知识拓展的 Prompt-learning 方法来解决短文本分类中的标签扩展问题,并在三个著名数据集上实验,结果比其他方法均取得了显著提高。
Feb, 2022
大型语言模型(LLMs)预先训练在海量语料库上,在各种 NLP 任务中展示了出色的性能。本文针对特定领域应用这些模型仍然存在着显著挑战,如缺乏领域知识、有限的领域知识利用能力和不足的领域特定数据格式适应能力。因此,本研究聚焦于以电子商务领域为示例进行面向领域的持续预训练。具体而言,我们探讨了在无标签的一般和电子商务语料库上进行持续预训练对 LLMs 的影响。此外,我们设计了一种混合策略来更好地利用电子商务半结构化数据。我们构建了多个任务来评估 LLMs 在电子商务领域中的少样本上下文学习能力以及经过指令调整后的零样本性能。实验结果证明了电子商务 LLMs 持续预训练的有效性,以及我们设计的数据混合策略的功效。
Dec, 2023
本文提出了一种无监督实体类型框架,通过结合符号和分布语义,使用语言结构学习通用的嵌入,并开发了一种新型的联合层次聚类和链接算法来对所有提及进行类型。该框架不依赖于任何注释数据、预定义的打字架构或手工特征,因此可以快速适应新的领域、体裁和语言。同时,它具有很大的灵活性,可以包括语言结构等来改进特定上下文表示。
Mar, 2016