IEPile: 挖掘大规模基于模式的信息抽取语料库
使用 ADELIE 模型与高质量对齐数据集 IEInstruct 进行指令调整和直接优化,实现了信息抽取任务的最新性能,并探索了 ADELIE 的通用能力。
May, 2024
信息提取是从自然语言文本中提取结构化知识(如实体、关系和事件)的过程。最近,生成式大型语言模型(LLMs)在文本理解和生成方面展示出了显著的能力,允许在各个领域和任务中进行概括。为了对 LLMs 在信息提取任务中的努力进行全面系统的回顾和探索,我们通过调查这个领域的最新进展来进行研究。我们首先通过以各种信息提取子任务和学习范式进行分类来呈现一个全面的概述,然后我们经验性地分析最先进的方法并发现使用 LLMs 的信息提取任务的新兴趋势。通过进行彻底审查,我们确定了一些技术见解和有希望进一步探索的研究方向,值得在未来研究中持续探索。我们在以下网址维护一个公共资源库并定期更新相关资源:https://github.com/quqxui/Awesome-LLM4IE-Papers。
Dec, 2023
引入了一种为大型语言模型定制的细粒度信息抽取基准数据集,通过评估发现编码器 - 解码器模型在泛化到未见过的信息类型方面表现良好,而 ChatGPT 对于新任务形式具有更大的适应性。结果还表明,性能不仅仅取决于模型规模,还强调了架构、数据多样性和学习技术的重要性。这项工作为在信息提取中更精细、更灵活地利用大型语言模型铺平了道路。
Oct, 2023
本文针对零样本情况下中文开源大型语言模型在信息抽取任务中的性能进行了综合调查和分析,同时通过少样本实验评估了这些模型的能力,并与 ChatGPT 等广泛认可的语言模型在信息抽取性能上进行了比较分析,旨在提供对现有中文开源大型语言模型在自然语言处理中信息抽取领域的优势、限制和潜在增强的洞察。
Jun, 2024
该论文介绍了一种新的信息提取任务,名为 Instruction-based IE,旨在要求系统根据特定的指示或指南提取信息。作者从中文维基百科和高质量众包注释实例构造了一个名为 InstructIE 的数据集,并评估了各种基线模型在该数据集上的性能。结果表明,当前的模型表现出有希望的性能,但仍有改进的空间。此外,作者进行了综合案例分析,强调了 Instruction-based IE 任务中固有的挑战。
May, 2023
我们提出了一个称为 MetaIE 的新框架,通过学习提取 “重要信息” 来构建一个小型元模型,使得这个元模型可以有效和高效地适应各种信息提取任务,在少样本适应设置下获得更好的性能。
Mar, 2024
信息抽取是自然语言处理中的基石,传统上被细分为不同的子任务。大型语言模型的出现预示着一种新的范式转变,即单一模型能够解决多个信息抽取子任务。本文引入通用信息抽取大型语言模型(GIELLM),它通过统一的输入输出架构整合了文本分类、情感分析、命名实体识别、关系抽取和事件抽取。这次创新标志着一个模型首次同时处理如此多样的信息抽取子任务。值得注意的是,GIELLM 利用了互相增强效应(MRE),在综合任务中提高了性能,与各自孤立的任务相比。我们的实验证明,在六个日语混合数据集中,我们在五个数据集中取得了最先进的结果,明显超过了 GPT-3.5-Turbo。此外,使用新颖的文本分类关系和事件抽取(TCREE)数据集进行的独立评估证实了 MRE 在文本和词分类中的协同优势。这一突破为大多数信息抽取子任务在一个统一的 LLM 框架下合并提供了可能,不再需要专门的微调任务特定模型。
Nov, 2023
本文提出利用 Code-LLMs 如 Codex 代替 NL-LLMs,通过设计以代码为形式的提示和将 IE 任务制定为代码生成任务,有效地解决了信息提取任务的难题,并在七个基准测试中显示其优越性。
May, 2023
本论文探讨了语言模型是否能够支持从复杂表格中进行成本有效的信息提取,并引入了基于架构驱动信息提取的新任务,使用 LLMs 将表格数据转换成遵循人类撰写的架构的结构化记录,并发展了一种 InstrucTE 方法来实现表格抽取,该方法仅需要人工构建的抽取架构,并具备错误恢复策略及高性能,证实了使用更紧凑的抽取模型进行抽取的可行性。
May, 2023
本文介绍了一种探测工具 ProPILE,由数据主体或 PII 所有者制定提示,评估基于 LLMs 的服务中 PII 泄漏的程度,并且展示了其在 OPT-1.3B 上的应用,该工具是授予数据主体他们对网络数据的知情权和控制权的开创性一步。
Jul, 2023