相关工作和引文生成:一项调研
本文介绍了一个基于语言学的相关工作自动生成框架,包括引入一个标注数据集 CORWA 和训练一个基于此标注数据集的强基线模型,并建议了一种新颖的循环抽象与人工参与的相关工作生成框架。
May, 2022
本文提出了一种基于目标感知的抽象关联工作生成器(TAG),该生成器可以生成包含新句子的相关工作部分,通过目标中心化的注意机制,建模参考文献和目标论文之间的关系,并使用具有语义指示器的关键词短语考虑不同级别图的节点,在多级对比优化目标的指导下生成更具信息量的相关工作。通过在两个公共学者数据集上的广泛实验,表明所提出的模型在自动和定制化的人类评估方面比几个强基线模型都有实质性的改进。
May, 2022
通过分析引文图,我们评估了人工智能辅助学术写作,并发现 GPT-4 在支持人类用户的构思方面能够生成合理的粗粒度引文组合,但在没有人为干预的情况下无法进行详细的相关工作综合。因此,我们建议未来的写作助手工具不应独立撰写文本。
Feb, 2024
文本生成领域的文献回顾研究了 244 篇论文,将文本生成的工作分类为五个主要任务,并分析了相关特点、子任务和具体挑战。此外,研究还评估了目前的评估方法,并确定存在的问题。研究指出了九个主要挑战,并提供了详细分析和解决方案,以及进一步研究需求。该文献回顾面向自然语言处理领域的初级研究人员和有经验的研究人员。
May, 2024
该论文介绍了 OARelatedWork,这是第一个大规模的多文档摘要数据集,用于相关工作生成,包含整个相关工作部分和引用论文的全文。该数据集包括 94450 篇论文和 5824689 篇独特引用的论文。它旨在自动生成相关工作,将该领域从仅从摘要生成相关工作部分的抽象方法转向从所有可用内容生成整个相关工作部分的方式。当使用全文而不是摘要时,我们发现提取式摘要的 ROUGE-2 得分上限增加 217%。此外,我们展示了全文数据对于基线模型(如 naive、oracle、traditional 和基于 transformer 的模型)的好处。长文本输出(如相关工作部分)对于像 BERTScore 这样的自动评估指标会带来挑战,因为其输入长度有限。我们通过提出和评估使用 BERTScore 的元度量来解决这个问题。尽管操作的是较小的块,但我们证明这个元度量与人类判断具有相当的相关性,与原始的 BERTScore 相当。
May, 2024
我们探索了一种基于特征的 LLM-prompting 方法来生成更丰富的引用文本,并一次生成多个引用以捕捉研究论文之间的复杂关系,通过专家评估研究我们发现,我们提出的特征对生成段落质量的影响具有很强的相关性,提示人们更喜欢高层次、抽象的引用和其中的过渡句来提供整体故事。
Feb, 2024
利用大型语言模型(LLM)的检索增强生成(RAG)原理和专门的提示与指示技术,我们提出了一个工具包来减少文献综述的时间和工作量,建立了我们的工具包作为一种高效的替代方法。
Feb, 2024
本文介绍了一种方法,可以根据用户定义的查询自动生成一篇综述论文。该方法包括两个主要部分,第一部分通过诸如同袍引用的图表等文献计量参数来识别领域中的关键论文。第二阶段使用 BERT 架构,我们在现有的综述论文中对这些关键论文进行抽取式摘要。我们介绍了我们方法的一般流程和一些实现细节,并在 PubMed 数据集上进行了自动和专家评估。
Oct, 2020