基于大型语言模型的 5W1H 提取
本文介绍了一种改进的基于 Giveme5W1H 的事件提取系统,使用句法和领域特定规则自动从英文新闻文章中提取相关短语并回答 “五个 W 和一个 H” 问题,可以作为广泛应用于新闻分析的唯一通用开源 5W1H 提取器。
Sep, 2019
使用提取式 QA 模型进行特征提取的方法可改善德语商业文档的信息提取,并通过微调现有德语 QA 模型提高性能,同时还讨论了评估信息提取任务的相关度得分指标。
Sep, 2023
在这项研究中,我们评估了两个最先进的语言模型 ——GPT-3 和 GPT-3.5(通常被称为 ChatGPT)在提取叙述实体(事件、参与者和时间表达)方面的能力,并发现它们与开箱即用的基准系统相媲美,为资源有限的从业者提供了一种全能的替代方案。通过研究这些模型在信息提取领域的优势和局限性,我们提供了可以指导未来改进和探索的见解。
Nov, 2023
本文研究了用 ChatGPT 进行事件抽取的可行性并探究了遇到的挑战,结果表明 ChatGPT 在长尾和复杂情况下只有任务特定模型 EEQA 的 51.04%的性能,ChatGPT 不够稳定,继续改进提示不会导致稳定的性能提高,而且 ChatGPT 对不同的提示风格非常敏感。
Mar, 2023
该研究将大型语言模型(LLMs)如 GPT-4 与传统自然语言处理(NLP)任务相结合,利用思维链(CoT)提示技术从 GPT-4 中提取知识,并应用于改进较小模型 BERT 在命名实体识别(NER)任务中的效率和效果。通过采用两阶段训练过程,该方法在预训练阶段使用 GPT-4 标注数据,并结合蒸馏和原始人标注数据来完善模型。结果表明,我们的混合训练策略明显优于仅使用人工标注的模型,达到了更高的 F1 得分,并展示了在资源有限或封闭网络环境下的成本效益解决方案。研究还讨论了遇到的挑战,如 LLM 输出的可变性和偏向幻觉,提出了改进提示设计和注释选择的未来工作方向。我们的发现显示出 LLM 洞察力与传统 NLP 技术之间的有希望的协同作用,为更易于接近和强大的 NLP 应用铺平了道路。
Feb, 2024
本研究提出了 ChatExtract 方法,该方法利用先进的会话型 LLM(或 AI)自动提取数据,并通过一系列后续问题确保其正确性。 ChatExtract 可用于任何会话型 LLMs,结果表明,由于其简单性,可转移性和准确性,类似 ChatExtract 的方法有望在不久的将来取代其他数据提取方法。
Mar, 2023
本文研究了如何使用大型语言模型在缺乏公共医疗语料库和注释的情况下,零和少样本学习从临床文本中提取信息,包括跨度识别、令牌级序列分类和关系提取。通过引入新的 CAS 数据集并进行手动再注释,GPT-3 系统在这些任务上明显优于现有的零和少样本基线。
May, 2022
探索大型语言模型 (LLMs) 在医学应用方面的潜力,特别是在药物监测事件提取方面的 ChatGPT 的能力。我们进行了广泛的实验,评估了 ChatGPT 在药物监测事件提取任务中的性能,并采用了各种提示和演示选择策略。研究结果表明,虽然 ChatGPT 在适当的演示选择策略下表现出了合理的性能,但与完全微调的小型模型相比仍然有所不足。此外,我们探索了利用 ChatGPT 进行数据增强的潜力。然而,我们的研究发现将合成数据引入微调可能会导致性能下降,可能是由于 ChatGPT 生成的标签中存在噪声。为了减轻这个问题,我们探索了不同的过滤策略,并发现在适当的方法下可以实现更稳定的性能,尽管不断改进仍然具有挑战性。
Feb, 2024
本文提出了一种基于大型语言模型的数据注释方法,通过提示示例和解释的方式,实现了无监督的数据注释,实验结果表明该方法优于众包注释方法。
Mar, 2023