对话响应生成的局部解释
该论文提出了一种名为可控接地响应生成(CGRG)的框架,利用词汇控制短语来提高语义控制能力,有效避免了事实准确性和信息量之间的矛盾并超越强大的生成基准线。
May, 2020
本文提出基于联合循环卷积神经网络结构的统计语言生成器,可以在不需要语义对齐或预定义语法树的情况下,训练对话行为 - 话语对。客观指标表明,在相同的实验条件下,这种新模型优于以前的方法。人类评委的评估结果表明,它产生的不仅是高质量而且是语言上多变的话语,而且与 n-gram 和基于规则的系统相比受到更多的青睐。
Aug, 2015
本文旨在探讨如何更好地提供可解释的语言模型预测,通过将训练数据从强监督学习转向弱监督和无监督学习,并提出一种既实现并行解释生成和同时预测的非自回归解释模型,能够以比目前自回归模型快 10-15 倍的速度训练分类器。
Feb, 2023
本研究发展了一种融合了两种不同方法的模型,能够检索出机器人回答,并将其作为附加语境进行精细调节,从而产生了更准确、更生动、更吸引人的回答。在最近的 CONVAI2 挑战评估中,该模型在人类评估中明显优于传统的检索和生成模型。
Aug, 2018
本文研究了长期对话系统中响应生成的任务,评估了通用的 Pre-trained Language Models(PLM)在此目的上的适用性,并利用人的评估对自然语言生成错误进行分类。
May, 2023
本文提出了一个模块化的知识转换模型(K2R)来将知识纳入对话体系,通过将这一问题分解为两个简单的步骤来解决对该问题的挑战。在详细实验中,我们发现这种模型在与知识相关的对话任务中幻觉较少,并且具有解释性和模块化方面的优势。
Nov, 2021
通过比较基于 LLMs 生成的回应与非基于 LLMs 生成的回应的系统,研究了生成回应对主观评价(如情绪变化、认知变化和对话质量)的影响。结果表明,使用 GPT-4 时,情绪变化、共情和其他对话品质显著改善,说明 GPT-4 具有较高的心理咨询能力。然而,研究还指出,即使使用了人类心理咨询数据集训练的对话模型,与基于情景的对话相比,并不能产生更好的结果。在使用了规则、情景或示例回应的系统中,可以通过人工专业人士提前使用 LLMs 生成示例回应或回应模板的方式呈现基于 LLMs 生成的回应,并且直接与用户在现实的心理健康服务中进行交互,这可能引发一些伦理问题。
Jan, 2024
本文探讨利用人类书写的样例以几乎无监督的方式创作自由文本解释的任务,发现高质量的提示有助于提高语言模型的生成效果,同时人类研究表明 GPT-3 生成的解释在某些情况下能够胜过人工生成的解释;作者还结合 GPT-3 与学习自评价的筛选器对生成的解释进行过滤,结果表明这一方法能够实现较高水平的解释过滤。
Dec, 2021