C5: 为 ChatGPT 实现更好的对话理解与上下文连贯性
本研究提出了一种名为 CoHS-CQG 的两阶段交谈问答生成框架,其中采用 CoHS 模块来缩短输入的上下文和历史,以优化对话对齐属性。该模型在 CoQA 的答案感知和答案不感知情况下均取得了最先进的性能。
Sep, 2022
评估使用自身知识作为问答系统的 ChatGPT 在回答复杂问题方面的能力,我们提出了一个框架来评估其功能和可靠性,并使用 CheckList 和 8 个现实世界的基于 KB 的问答数据集进行了测试。 我们发现 LLM 模型的一些常见问题。
Mar, 2023
通过引入图驱动的上下文检索和基于知识图谱的增强来提高大型语言模型的能力,特别是在特定领域的社区问答平台中,提供上下文丰富的数据检索与大型语言模型的配对,为 AI 系统中的知识获取和生成带来了一种新的方法。
Jan, 2024
本研究探讨了 ChatGPT 在话语语篇分析中的能力,特别是话题分割、话语关系识别和话语分析三个任务的能力。结合创新的思维链(COT)方法,发现 ChatGPT 对于话题分割有较好的表现,但在话语关系识别和话语分析等较难的任务中有待提高。
May, 2023
本文提出一种基于上下文感知的图注意力模型 (Context-aware GAT),可以在知识聚合流程中有效地整合相关知识图的全局特征,并且优于传统基于图神经网络 (GNNs) 的语言框架。
May, 2023
本文研究如何将 Conversational AI 和 Question-Answering systems 应用于 knowledge graphs 中,以提供自然语言的交互接口。同时,对两种技术进行对比和评估,并提出将 QASs 升级为 KG chatbots 的研究机会。
Feb, 2023
ChatGPT 作为一个问答系统,通过对其在提供的段落中提取回答的能力进行评估,发现它在生成模型方面表现出了实力,但在问题回答方面相对于特定任务模型表现较差,而提供上下文可以提高其性能,提问方式对其准确性有所影响,并且在提供的上下文中提供了无法从中获取答案的问题的回答,还存在答案幻觉的现象。
Dec, 2023
本研究介绍了一种用于开放领域通用对话的局部和全局会话模型(LGCM),它是一种局部 - 全局层次化转换器模型,能够准确辨别和吸收生成回答所需的相关上下文。通过使用局部编码器捕获个别话语的局部上下文以及使用全局编码器理解对话层面的更广泛上下文,这些局部和全局上下文化编码的无缝融合确保对对话进行全面的理解。在流行数据集上的实验证明,LGCM 在自动度量指标的性能上超过了现有的对话模型,并且具有显著的优势。
Jan, 2024
本研究提出了 GraphFlow 模型,通过图形结构学习技术及 Recurrent Graph Neural Network 有效捕捉了磋商历史,并引入流机制建模上下文图形的时间依赖关系,从而提高了对话流的捕获能力,对 CoQA、QuAC 和 DoQA 等基准测试表现具有竞争力,而且可为推理过程提供良好的可解释性。
Jul, 2019
本文提出了一种历史语义图增强问答模型(HSGE),能够有效地建模会话历史中的长程语义依赖关系,同时保持低计算成本。实验结果表明,它在所有问题类型上平均优于现有基线。
Jun, 2023