元上下文学习提高大型语言模型的零和少样本关系抽取器
通过提出一种召回 - 检索 - 推理关系抽取框架,将大型语言模型与检索语料库相结合,从而使语言模型能够在上下文中进行可靠的推理,以提高关系抽取的性能。
Apr, 2024
MetaICL 是一种新的元训练框架,用于少样本学习,通过在大量训练任务上进行元训练,调整预训练模型进行上下文学习,从而在测试时仅通过少量训练例子进行条件化得到更好的学习效果,该框架在包括分类、问答、自然语言推理、释义检测等在内的 142 个 NLP 数据集上进行了实验,比没有元训练的上下文学习、多任务学习加零 - shot 转移等基线表现更好,在元训练任务与目标任务之间存在域变换时性能提升尤其显著。同时,MetaICL 方法和通常情况下全微调的模型表现相当甚至更优,甚至比参数近 8 倍的更大的模型表现更好,最后也证明了 MetaICL 可以和人工编写的指令相辅相成,两种方法相结合可以得到最佳的性能
Oct, 2021
使用 c-ICL 方法,通过整合正确和错误的示例构造,通过使用正确的示例以及最近的正类示例,通过上下文学习展示来提高大型语言模型在信息提取方面的性能。
Feb, 2024
本文提出了一种 Multi-Choice 匹配网络来统一少样本关系抽取,使用三元组改写元训练来填补零样本和少样本之间的差距,实验结果表明所提出的方法在三种不同的少样本关系抽取任务上表现优异,是少样本关系抽取领域中表现最好的模型。
Mar, 2022
通过预训练的语言模型,我们提出了一种新颖的在上下文中进行少样本关系抽取的框架,该框架可以消除命名实体识别和人工注释文档的需要,并实现了与现有方法相比最先进的性能。
Oct, 2023
本文使用了 ICL 框架下的 OpenAI 模型,采用两种检索策略在 REFinD 数据集中取得了较好的结果,获得了第 4 名的成绩,最佳 F1 分数为 0.718。
Jun, 2023
我们提出了一种简单但有效的方法来将任务上下文化为特定的大语言模型,通过观察给定的大语言模型如何描述目标数据集,聚合大语言模型的开放式推理结果,并最终将聚合的元信息纳入实际任务中,我们展示了这种方法在文本聚类任务中的有效性,并通过上述过程的示例突出了上下文化的重要性。
Jun, 2024
通过将关系抽取与常见的指令调整任务(如问答)对齐,我们提出了 QA4RE 框架,对 LLM 进行零样本学习任务的实验表明,该框架可显著提高 LLM 的性能,并使其在挑战性和不常见的任务上胜过强零样本基线。
May, 2023
本研究聚焦于使用大型语言模型作为无样本关系抽取器。通过分析现有关系抽取提示的不足之处,并引入诸如 CoT 的最新提示技术,我们提出了一种名为 SumAsk 的简单提示方法,通过使用大型语言模型将关系抽取输入转化为有效的问答格式。同时,我们在各种基准测试和设置上进行了广泛的实验,研究了大型语言模型在无样本关系抽取方面的能力,发现 SumAsk 方法在不同模型尺寸、基准测试和设置上都能显著提高大型语言模型的性能,在与无样本和完全监督方法相比具有一定竞争力甚至优越性能的同时,大型语言模型在提取重叠关系方面表现出了良好的性能,然而,不同的关系之间性能差异较大,大型语言模型相较于小型语言模型在处理挑战性的无适用项关系时表现出了有效性。
Oct, 2023