- KS-LLM: 大型语言模型问题回答的证据文档知识选择
利用证据文档作为额外支持材料的知识选择方法可有效解决大型语言模型面临的幻觉问题和知识密集任务,提升大型语言模型的性能。该方法使用三元组从证据文档中选择有益于回答问题的知识片段,并与大型语言模型结合产生答案,实验证明其优于基线方法并取得最佳结 - CET2: 模拟主题转换以实现连贯和引人入胜的基于知识的对话
基于对话上下文和选定的外部知识生成一致且吸引人的响应的知识驱动对话系统,引入了一种具有连贯性和吸引力的主题转换(CET2)框架,以模拟选择与对话上下文一致且提供充足的主题发展知识的主题转换。CET2 框架考虑了多个因素,包括从对话上下文到下 - EMNLP井井有条:面向知识驱动对话的生成器无关知识预选择
GATE 是一种生成器无关的知识选择方法,它通过在不同的知识结构和可变的知识需求中选择与上下文相关的知识来为后续的响应生成模型准备知识,实验证明 GATE 的优越性,表明生成前的知识选择是一种轻量且有效的方式,可以促进 LLMs 生成更具信 - 通过顺序后验推理实现多样而忠实的基于知识的对话生成
本文提出了一种名为顺序后验推断(SPI)的端到端学习框架,用于选择知识和生成对话,能够从后验分布中近似抽样,直接查询响应生成模型,以实现准确的知识选择和生成忠实的响应
- 基于半监督学习的面向知识检索任务的对话系统
提出一种基于检索的方法,以加强 TOD 系统中的知识选择,并结合半监督学习进行潜变量模型,该模型可以与知识检索器一起利用有标签和无标签的对话数据。实验证明,该方法在有标签和半监督设置下均优于传统的数据库查询方法。
- 基于文档支持的任务型对话系统:HLTPR@RWTH 在 DSTC9 和 DSTC10 上的研究
本文总结了我们在第 9 和 10 个对话系统技术挑战赛(DSTC9 和 DSTC10)的文档驱动对话任务中的贡献,包括知识选择,数据增强,响应生成和评估指标等领域。
- ACL基于知识的对话生成知识选择
本文提出了一种生成式方法,名为 GenKS,用于在基于对话历史的语境下选择适当的知识片段,该方法通过序列到序列模型生成标识符来选择片段,捕捉片段之间的内部知识交互,并通过超链接机制显式地建模对话 - 知识交互,同时在三个基准数据集上进行实验 - 具有主观知识的任务导向对话建模
本文提出了一个基于客户评论和 FAQ 的交互式对话模型,主要通过围绕知识检索、知识选择和响应生成的三个阶段进行改进。我们主要针对知识选择模块的改进以提高整个系统的性能,我们提出了实体检索方法,其中基于命名实体识别的实体检索方法的搜索速度比基 - ACL通过文档语义图增强基于信息场景的对话知识选择
本研究提出了一种将对话模型中的背景知识文档自动转换为文档语义图以对其进行知识选择,并联合应用多任务学习来改善句级和概念级知识选择的方法,并通过实验证明其在诸如 HollE 和 WoW 等领域的知识选择任务和端对端响应生成任务上均优于基于句子 - ACL千人千村:个人记忆增强的基于知识的对话
本文介绍了将个人记忆引入知识选择的方法,以解决个性化的问题,采用变分方法建模个人记忆与知识选择之间的关系,并设计了一种学习方式,其中包括了从个人记忆到知识的前向映射和其逆向映射。实验证明,我们的方法在自动评估和人类评估方面都显著优于现有的知 - 开放域对话中的多句知识选择
提出对话知识选择的新框架和数据集,用于评估现有方法的不足之处,并通过神经重排序模型改进评估结果,出色地完成了对话回复
- AAAI基于图的任务对话系统知识选择器
本论文基于当代最先进的语言模型构建了 Graph-Knowledge Selector(GKS)来解决对话系统中知识选择的问题,并考虑了知识之间的联系,明显优于 Ninth Dialog System Technology Challeng - AAAIDSTC9 中基于任务的对话建模与非结构化知识访问跟踪的超越领域 API
任务驱动的对话系统使用外部非结构化知识源来扩展任务领域 API 的覆盖范围,三个任务包括知识寻找、选择和响应生成,并用集成方法和大规模预训练语言模型取得了高性能。
- EMNLP一种用于理解基于文档的对话的比较聚合变形器
本文提出了使用 Compare Aggregate Transformer (CAT) 将文档信息与对话历史进行去噪并进行聚合以生成更多信息的回复。通过设计两种不同的比较机制以减少噪声 (进行解码前和期间),并提出两个基于单词重叠的评估文档 - EMNLP基于差异性的知识选择在知识驱动对话生成中的应用
该论文提出了一种差异感知的知识选择方法,通过将候选知识句子与前几轮选择的知识句子之间的差异信息与上下文信息相融合或分离,从而实现更加准确的知识选择,大幅度优于现有技术基线。
- ICLR面向知识驱动对话的顺序潜知识选择
论文提出了一种名为 `SKT` 的序列潜变量模型,该模型可提高多轮对话的知识选择准确性,并相应地改进了话语生成的绩效;实验结果表明,该模型在大规模对话评估中取得了最先进的表现。
- AAAI全球思考,本地行动:基于背景对话的远程监督全局到局部知识选择
该研究提出了一种全局到本地的知识选取机制,用于提高基于背景的对话系统中知识的选择效率,并且该机制通过远程监督学习模式进行训练,实验结果表明,它在自动评估和人工评估方面均明显优于现有的方法,且无须额外的注释,具有很高的可扩展性。
- ACL透过复合评估演变对话策略:更多地了解彼此
本文提出了一种新的 “生成 - 评估” 框架,通过对话策略和强化学习来控制知识选择,从而进行基于知识的多轮对话,最终在信息量和连贯性方面取得了显著的优势。
- EMNLP扩展图上可解释推理的知识感知对话生成
提出了一种基于知识图谱和语料库文本的对话机器人,结合了三个组件:增强的知识图谱、知识选择器和知识感知的响应生成器,并使用多跳图推理解决了知识选择问题,证明相比现有方法更易解释和灵活。
- 对话系统中选择相应生成知识的学习
该论文提出了一种采用先验和后验知识分布来实现知识选择的端到端神经模型,以更好地将适当的知识整合到响应生成中。