基于大型语言模型的信息提取实证研究
通过使用自适应的筛选和重排序范式,使用大型语言模型和小型预训练语言模型相互补充,可以提高信息提取任务的性能和效率,并消减时间和预算成本。
Mar, 2023
此研究拓展了大型语言模型(LLMs)的应用,探索了它们在数据预处理中的潜力,包括错误检测、数据插补、模式匹配和实体匹配任务。我们提出了一个基于LLMs的框架,用于改进模型的性能和效率。实验结果表明LLMs在数据预处理中具有巨大潜力。
Aug, 2023
通过提出各种上下文学习策略来增强大型语言模型的指示遵循能力,以及通过演示不确定性量化模块来增强生成关系的置信度,本论文评估了大型语言模型在改进开放信息抽取任务中的能力,并在三个开放信息抽取基准数据集上进行实验证明了我们的方法在数量和质量上能够与已建立的监督方法媲美。
Sep, 2023
引入了一种为大型语言模型定制的细粒度信息抽取基准数据集,通过评估发现编码器-解码器模型在泛化到未见过的信息类型方面表现良好,而ChatGPT对于新任务形式具有更大的适应性。结果还表明,性能不仅仅取决于模型规模,还强调了架构、数据多样性和学习技术的重要性。这项工作为在信息提取中更精细、更灵活地利用大型语言模型铺平了道路。
Oct, 2023
通过构建合适的推理环境,本文探索利用大型语言模型(LLMs)解决开放式信息抽取(OIE)问题,实验结果表明,相较于最先进的监督方法,我们的6-shot方法在标准CaRB基准上实现了55.3的F1分数,同时在TACRED和ACE05上实验结果显示,我们的方法可以自然地推广到其他信息抽取任务,并分别获得了5.7和6.8的F1分数提升。
Oct, 2023
信息提取是从自然语言文本中提取结构化知识(如实体、关系和事件)的过程。最近,生成式大型语言模型(LLMs)在文本理解和生成方面展示出了显著的能力,允许在各个领域和任务中进行概括。为了对LLMs在信息提取任务中的努力进行全面系统的回顾和探索,我们通过调查这个领域的最新进展来进行研究。我们首先通过以各种信息提取子任务和学习范式进行分类来呈现一个全面的概述,然后我们经验性地分析最先进的方法并发现使用LLMs的信息提取任务的新兴趋势。通过进行彻底审查,我们确定了一些技术见解和有希望进一步探索的研究方向,值得在未来研究中持续探索。我们在以下网址维护一个公共资源库并定期更新相关资源:https://github.com/quqxui/Awesome-LLM4IE-Papers。
Dec, 2023
本文针对零样本情况下中文开源大型语言模型在信息抽取任务中的性能进行了综合调查和分析,同时通过少样本实验评估了这些模型的能力,并与ChatGPT等广泛认可的语言模型在信息抽取性能上进行了比较分析,旨在提供对现有中文开源大型语言模型在自然语言处理中信息抽取领域的优势、限制和潜在增强的洞察。
Jun, 2024
本研究针对信息提取(IE)领域中的现有方法与大语言模型(LLMs)之间的性能差距进行了深入分析。我们提出了一系列简单的基于提示的方法,以提升GPT-4在信息提取任务中的表现,实验结果验证了这些方法的有效性及其配套的问题,促进了大语言模型在NLP任务中的应用潜力。
Aug, 2024