长篇讨论的指示性摘要
本文提出了一种基于无监督的基于图的排名模型,用于提取科学文献的摘要。我们的方法假定源文档采用两级分层图表示,并利用不对称的位置提示来确定句子的重要性。在 PubMed 和 arXiv 数据集上的结果表明,我们的方法在自动指标和人工评价方面优于强无监督基线。此外,其性能与许多基于监督学习的方法相当。这些结果表明,篇章结构中的模式是确定科学文章重要性的强有力信号。
May, 2020
本研究旨在探讨大型语言模型(LLMs)在主题提取方面的潜力,并建立评估协议以评估 LLMs 的聚类效果。通过深入实验与评估,总结了采用 LLMs 进行主题提取的优势和限制。
Mar, 2024
本研究通过设计 Annotation Protocols 并使用 Argument Mining 技术,基于网络上不同形式的讨论为标准数据集,比较了各种先进的对话总结模型,在自动和人工评估中均取得了较高的结果。
Jun, 2021
这项研究通过利用投票算法,提出了一种新的框架 LaMSUM,通过大型语言模型生成用户生成的文本的摘要,结果显示 LaMSUM 优于现有的提取式摘要方法,同时试图解释语言模型生成的摘要产生的原因。
Jun, 2024
通过递归估计父句子与子句子之间的关系,组成一个无须外部解析器的潜在篇章树,以此进行无监督的单篇产品评论的纯摘要,并介绍了一种句子重要性排序的架构来生成集中在主要评论点的摘要。研究结果表明,该模型在相对长的评论中表现竞争或超越受监督模型的表现,其生成的摘要抽象了整个评论。
Jun, 2019
该研究提出了一种新方法,即从长文档中提取关键句子,然后通过提示大型语言模型来评估摘要,以解决计算成本高、长文档中的重要信息往往被忽视的问题,研究结果显示该方法不仅显著降低了评估成本,而且与人工评估的相关性更高,此外,我们还提供了关于最佳文档长度和句子提取方法的实用建议,为基于大型语言模型的文本生成评估的成本效益更高且更准确的方法的发展做出了贡献。
Sep, 2023
基于三层框架的科学情感总结方式,本研究提出了评估生成的元评价的质量的评估指标,并在广泛实验证明通过将此框架作为 LLMs 的提示生成元评价的假设在实证中是可行的。
Feb, 2024
利用大型语言模型(LLMs)从社交媒体消息中提取潜在观点的通用 LLMs-in-the-Loop 策略,旨在解决社交媒体话语研究中手动编码方法的耗时和高成本问题。
Apr, 2024
使用大型语言模型递归生成摘要 / 记忆,从而提高长期记忆能力,进而解决开放领域对话系统中遗忘重要信息的问题。实验证明,该方法可以在长对话环境中生成更加一致的回应。
Aug, 2023
本研究首次尝试使用分层注意力网络进行论坛帖子的总结,并使用神经注意力机制创建句子和主题表示形式,其结果表明,采用冗余剔除的方法能够提高论坛帖子总结的效果。
May, 2018