使用提取式 QA 模型进行特征提取的方法可改善德语商业文档的信息提取,并通过微调现有德语 QA 模型提高性能,同时还讨论了评估信息提取任务的相关度得分指标。
Sep, 2023
本文研究了抽象神经摘要模型中常用的门控机制是如何控制摘要产生的抽象度和拷贝的提取性,并通过实验证明了这种机制在语法边界方面的应用。同时,也发现了抽象神经摘要模型目前缺乏生成都具备抽象和忠实性的释义所必需语义理解能力的问题。
Jun, 2021
本文探讨了构建自然语言解释来辅助事实核查和新闻评估应用的目标,在两个误解数据集中,基于 Biased TextRank 的提取方法表现最有潜力。
Apr, 2021
利用大型语言模型(LLMs)生成基于上下文的关键词,提出了主题感知关键词提取(LLM TAKE)的框架,通过避免输出非信息或敏感关键词,并减少在 LLMs 中普遍存在的幻觉,为电子商务领域的产品生成提取和抽象主题的两个变体,通过对三个真实数据集的广泛实验证明,该模型能够通过比较基准模型提升准确性和多样性。
Dec, 2023
本文采用神经抽象总结的方法来产生长文档的抽象总结,该方法使用一个简单的抽取步骤来生成一个摘要,然后将其用作相关信息的转换器语言模型的条件,然后生成一个摘要。我们展示了这个抽取步骤显著地改善了总结结果,而且这种方法产生的抽象总结比以前采用复制机制的工作能够实现更高的浸润得分。
Sep, 2019
在生成式语言模型和情感分析的领域中,针对现有的评估方法进行重新审视和重构,强调了针对生成式模型的复杂性,并提出了一份全面的指导方针以确保准确反映生成能力的情感分析评估。
Apr, 2024
信息提取是从自然语言文本中提取结构化知识(如实体、关系和事件)的过程。最近,生成式大型语言模型(LLMs)在文本理解和生成方面展示出了显著的能力,允许在各个领域和任务中进行概括。为了对 LLMs 在信息提取任务中的努力进行全面系统的回顾和探索,我们通过调查这个领域的最新进展来进行研究。我们首先通过以各种信息提取子任务和学习范式进行分类来呈现一个全面的概述,然后我们经验性地分析最先进的方法并发现使用 LLMs 的信息提取任务的新兴趋势。通过进行彻底审查,我们确定了一些技术见解和有希望进一步探索的研究方向,值得在未来研究中持续探索。我们在以下网址维护一个公共资源库并定期更新相关资源:https://github.com/quqxui/Awesome-LLM4IE-Papers。
该研究提出了一种方法,通过对句子和文档的主题进行深入理解,不仅分析数据中的词频,而且可以检测包括非常见词或新词在内的潜在主题,还使用了基于语义空间的异类词和相似性度量等新的评价指标,并通过与人工识别相似性度量的相关系数,在文本挖掘方面展现出优秀的性能结果。
Mar, 2023
为了提高跨语言问答系统的可靠性,本研究对该系统的描述性和归属性进行了研究,并测试了多种检测方法来提高归属度。通过使用自然语言推理模型和 PaLM2 对少量的归属数据进行微调,可以准确地检测到归属和提高跨语言问答系统的归属度。
May, 2023
本文提出了新的检索模型,结合了指令模型和基于检索模型,使用大型语言模型的正负对进行训练,以改进当前文本嵌入技术性能。