LLM 辅助的半监督式提取式对话摘要
使用半监督方法解决在有限标记数据场景下的提取式文本摘要任务,提出了一种基于 GPT-4 的基于提示的伪标签选择策略,通过使用 LLM 评估和生成伪标签,改进了不同数据集上的 ROUGE-1 指标 10-20%,减少了无标记样本数量。
Nov, 2023
大型语言模型在会话摘要方面的能力有待探索,本研究评估了使用大约 100 亿个参数的语言模型在会话摘要上的性能,展示了其对各种提示的表现,并且证明了模型生成的摘要取决于指令,LLMs 在不同指令下的性能差异,如果提示选择不当,有时会导致 ROUGE 分数的显著下降,还通过人工评估对模型进行了评估,并讨论了模型在会话摘要方面的限制。
Nov, 2023
LeanContext 是一种从上下文中高效提取与查询密切相关的关键句子的方法,采用强化学习技术动态确定提取的句子数量,其余重要性较低的句子通过开源的文本缩减方法进行缩减。与保留完整上下文的基准方法相比,尽管成本减少了 37.29%至 67.81%,LeanContext 的 ROUGE-1 得分仅下降了 1.41%至 2.65%。此外,如果使用免费预训练的基于大型语言模型的摘要方法来缩减上下文,LeanContext 可以进一步修改缩减后的上下文,提高准确性(ROUGE-1 得分)13.22%至 24.61%。
Sep, 2023
本文提出了一种新的学习范式,考虑到 LLMS 是常用摘要数据集中的参考标准,用对比学习和 LLM 作为摘要质量评估器进行摘要训练方法。实验证明,用 GPTScore 和 GPTRank 两种 LLM 计分方式训练出来的较小的摘要模型,其性能可以与参考的 LLM 相媲美,通过访问 LLMS 它只需要很小的预算。
May, 2023
使用大型语言模型递归生成摘要 / 记忆,从而提高长期记忆能力,进而解决开放领域对话系统中遗忘重要信息的问题。实验证明,该方法可以在长对话环境中生成更加一致的回应。
Aug, 2023
本文提出了一种方法,利用非对话摘要数据来增强对话摘要系统,通过转换文档摘要数据对来创建更适合对话摘要的训练数据,使其具有非对话数据集的良好特性,增强了在所有训练方案中的可信度。实验证明,利用非对话数据进行训练,可以显著提高摘要性能以及保持数据来源的准确性。
Oct, 2022
本文探讨了客户服务代理与客户之间多视角摘要的创建方式,通过探索不同视角的启发式算法,创建了弱标注数据并在少量标注数据 fine-tuning 的情况下,支持生成摘要的模型在性能上接近原始数据的 94%,这一方法可以为摘要的人工创建工作减轻负担。
Mar, 2022
本研究聚焦于使用大型语言模型作为无样本关系抽取器。通过分析现有关系抽取提示的不足之处,并引入诸如 CoT 的最新提示技术,我们提出了一种名为 SumAsk 的简单提示方法,通过使用大型语言模型将关系抽取输入转化为有效的问答格式。同时,我们在各种基准测试和设置上进行了广泛的实验,研究了大型语言模型在无样本关系抽取方面的能力,发现 SumAsk 方法在不同模型尺寸、基准测试和设置上都能显著提高大型语言模型的性能,在与无样本和完全监督方法相比具有一定竞争力甚至优越性能的同时,大型语言模型在提取重叠关系方面表现出了良好的性能,然而,不同的关系之间性能差异较大,大型语言模型相较于小型语言模型在处理挑战性的无适用项关系时表现出了有效性。
Oct, 2023
本文研究了利用半监督学习方法在构建神经对话系统时可以减少中间标签的数量,发现可以利用未注释数据来显著减少对话状态的转换级别注释,同时在 MultiWOZ 语料库上进行了分析并提出了第一个端到端的对话模型。
Nov, 2019
本研究评估了一些文本摘要技术,以产生呼叫总结。实验结果表明,采用 TopicSum 和 Lead-N 方法的摘要优于其他方法,而 BERTSum 在主观和客观评估中得分相对较低。结果表明,即使像 Lead-N 这样简单的启发式方法也可以生成有意义和有用的呼叫中心对话摘要。
Sep, 2022