召回、检索与推理:迈向更好的上下文关系抽取
Fine-tuned large language models integrated into the Retrieval-Augmented-based approach demonstrate exceptional performance in identifying implicit relations, surpassing previous results on SemEVAL and achieving substantial gains on TACRED, TACREV, and Re-TACRED datasets.
Jun, 2024
本文使用了 ICL 框架下的 OpenAI 模型,采用两种检索策略在 REFinD 数据集中取得了较好的结果,获得了第 4 名的成绩,最佳 F1 分数为 0.718。
Jun, 2023
本研究介绍了 GPT-RE,这是一种解决大型语言模型在关系提取中局限性的方法,包括任务特定实体表现的使用和黄金标签引导推理逻辑的使用。该方法在四个数据集上的实验结果表明其超过了 GPT-3 基线并且在 Semeval 和 SciERC 数据集上实现了 SOTA 表现。
May, 2023
本研究表明,在语义上相似的演示可以提高大型语言模型的性能,这可以通过呈现一些示范来完成,并且可以有效地对大量语言和任务进行泛化,同时,我们还引入了任务特定的演示检索器,以进一步提高性能。
May, 2023
通过集成大型语言模型和自然语言推理模块,我们提出一种自动标注方法来生成关系三元组,从而增强文档级关系数据集,我们通过介绍增强的数据集 DocGNRE 展示了我们方法的有效性,该方法在重新注释众多长尾关系类型方面表现出色,并且在推进广义语言语义理解方面提供了实际好处。
Nov, 2023
通过引入 AutoRE 模型和 RHF (Relation-Head-Facts) 的新型 RE 提取范式,结合 QLoRA (Parameters Efficient Fine Tuning) 算法构建了一个易于扩展的 DocRE 框架,在 RE-DocRED 数据集上展现了最佳性能,超过 dev 和 test 集合上分别为 TAG 10.03% 和 9.03% 的最新结果。
Mar, 2024
使用 c-ICL 方法,通过整合正确和错误的示例构造,通过使用正确的示例以及最近的正类示例,通过上下文学习展示来提高大型语言模型在信息提取方面的性能。
Feb, 2024