神经关键词生成的实证研究
本文研究了三种强大的编码 - 解码模型 (T5、 CatSeq-Transformer 和 ExHiRD) 的性能和行为,分析了预测置信度得分、模型校准和密钥短语生成的令牌位置对其的影响,提出了一个新的度量框架 SoftKeyScore。结果表明,相比于标准的 F1 指标,SoftKeyScore 更适合用于评估两组给定关键词。
Apr, 2023
本文深入研究了基于预训练语言模型(PLMs)的关键短语抽取和生成的设计选择及其表现,发现在领域内使用类 BERT 的 PLMs 可以用于构建强大且数据有效的关键短语生成模型。而在固定参数预算的情况下,将模型深度优先于模型宽度,将更多的层分配给编码器,能够带来更好的编码器 - 解码器模型的表现。同时,在引入四个领域内的 PLMs 后,本文在新闻领域中实现了有竞争力的表现,在科学领域中实现了最先进的表现。
Dec, 2022
本文证明了 Sequence-to-sequence 模型可以显著提高文档检索性能,并介绍了一种新的外在评估框架,以更好地理解生成关键词模型的局限性,包括文档补充中所遇到的困难和模型在不同领域中的一般化问题。
Jun, 2021
本研究旨在展示使用 seq2seq 语言模型 BART,在一个简单的训练过程中能够轻松地从文本中生成关键词短语,并在五个基准测试中获得与现有最先进 KPG 系统一样好的实证结果,同时也拥有简单易部署的框架。
Jan, 2022
本文提出了一种新的集成方法,用于关键短语的生成,利用多任务学习的方法同时学习抽取式模型和生成式模型,采用神经网络集成预测结果,实验结果表明基于抽取式、生成式和检索式方法的综合方法更优。
Apr, 2019
本文提出了一种通过使用一种数据有效的三阶段流程来训练关键短语生成(KPG)模型的方法,从而解决大型分布位移对不同领域 KPG 模型之间的转移性造成的严重障碍问题,并获得了在新领域中产生良好质量关键短语的结果。
Aug, 2022
通过对模型选择和解码策略的系统分析,本文提出 DeSel 算法,通过对 5 个数据集进行评估,平均提高 4.7% 的语义 F1 得分,为基于预训练语言模型的关键词生成(KPG)领域的深入研究奠定了基础。
Oct, 2023
本文通过总结代表性的研究,从主流模型、数据集和评估指标等多方面回顾了关键短语预测这一任务,并重点关注了近年来越来越受到关注的基于深度学习的关键短语预测方法。此外,本文通过多组实验对代表性模型进行了细致的比较,并首次尝试使用相同的常用数据集和评估指标对这些模型进行深入分析,发现了它们的优缺点。最后,本文讨论了未来该课题的可能研究方向。
May, 2023