- LLM 在口语对话中的稳健性研究
使用 LLM(Large Pre-Trained Language Models)评估了在口语任务导向对话中的性能,结果表明 LLMs 默认情况下对口头噪音不够鲁棒,但在正确的口头 TOD 数据集上进行微调 / 训练可以获得更强的性能。
- K-ESConv: 运用提示学习来为情感支持对话系统进行知识注入
在线心理咨询需要大量专业知识,本研究提出了 K-ESConv 方法,一种基于提示学习的知识注入方法,通过转移论坛知识到响应生成,从而实现情感支持对话系统。实验结果表明,该方法在自动评估和人工评估上优于现有基准方法,在回应的相关性和多样性方面 - RRescue: 提升对上下文的推理能力的 LLM 响应排序
通过使用排名度量标准优化 LLMs,本研究提出了一种增强 LLMs 情境理解的新方法 RRescue,该方法通过对一系列具有情境依据的候选回复进行排序,以部分排序的方式来教授 LLMs。
- 深思熟虑:通过内心独白培养大型语言模型的沟通技巧
通过设计和添加内心独白,通过提示工程和上下文学习的方式,使大型语言模型(LLMs)更具人类形象和积极主动的对话能力,并构建评估模型对话生成能力的综合性基准 CSkills,并实验证明了所提出的 CSIM 策略在自动评估和人工评估上优于基准模 - 对话回复生成的上下文依赖指令调整
通过上下文指导生成回复的语言模型在多轮对话生成任务中取得了令人瞩目的成果,通过对指令进行微调并将其与输入对齐,可以显著提高生成性能。
- 人物编码多流对话句子打分:以人物为导向
最近机器学习和深度学习的进展已经导致在许多实际应用中广泛使用对话式人工智能。然而,利用能够提供对话背景或个性化调整的辅助信息以改善对话质量仍然非常具有挑战性。本文提出了一种新颖的 Persona-Coded Poly-Encoder 方法, - TPE:多人合作中更好的概念工具组合推理
大型语言模型在对话系统中的应用中,引入了多人合作框架:Think-Plan-Execute (TPE),以进一步增强其推理和规划能力,提供结构化的响应生成过程,减少标记冗余,展示了在多源和多策略对话交互中的有效性,具备处理需要更复杂工具学习 - 链式验证减少大型语言模型中的幻觉
大型语言模型中的可信且不正确的事实信息生成问题被称为幻觉,本研究通过开发验证链 (Chain-of-Verification) 方法来研究语言模型在给出回答时是否能够决策并修正其错误,实验结果表明验证链方法能够降低幻觉的生成。
- 大型语言模型的不确定思考推理树
我们引入了一种针对大型语言模型的推理框架 —— 不确定性思维树(TouT),通过有效利用蒙特卡洛丢弃法来量化这些中间步骤的多样化本地响应的不确定性评分,并将其与全局搜索算法结合起来,提高模型在响应生成方面的精确性。通过在两个具有挑战性的规划 - 一种大型语言模型增强的对话式推荐系统
利用大型语言模型开发了一种新的会话式推荐系统(LLMCRS),能够有效管理子任务、解决不同的子任务、并生成与用户交互的响应,通过细化工作流程和使用强化学习的反馈优化,实验结果表明其性能超过现有方法。
- 利用少样本数据增强和逐层引导的响应生成
本文讨论使用主观知识进行任务导向型对话建模的方法,重点关注回答生成。我们通过广泛的数据分析确定了回答长度、情感和对话行为等关键因素,并使用少样本学习来增强数据。我们提出了三种方法应用于 DSTC11:(1)任务特定模型探索,(2)将最频繁的 - DiactTOD: 学习可控的通用潜在对话行为的任务导向对话系统
通过使用潜在对话行为模型 (DiactTOD) 预测和控制对话行为生成可控制的回应,该方法在 MultiWOZ 数据集上展示了在多种实验设置中的最先进性能,包括零样本、少样本和全样本微调,以及端到端和策略优化配置。
- ZRIGF: 零资源图像引导对话生成的创新多模态框架
ZRIGF 是一种创新的多模态框架,用于零资源情境下基于图像的对话生成,包括对抗性预训练和生成性预训练两个阶段,通过映射和融合图像和文本,生成上下文相关和有信息量的回应。
- 通过顺序后验推理实现多样而忠实的基于知识的对话生成
本文提出了一种名为顺序后验推断(SPI)的端到端学习框架,用于选择知识和生成对话,能够从后验分布中近似抽样,直接查询响应生成模型,以实现准确的知识选择和生成忠实的响应
- ACL食谱驱动对话中改善指令顺序
通过探索辅助子任务:用户意图检测和指令状态追踪,以支持响应生成,从而提高指令基础的对话系统的性能,实验结果表明它能够缓解生成错误顺序的问题,并在分析 ChatGPT 的输出时发现其仍存在错误。
- 纵向对话中的响应生成:哪种知识表征更为有利?
本文研究了长期对话系统中响应生成的任务,评估了通用的 Pre-trained Language Models(PLM)在此目的上的适用性,并利用人的评估对自然语言生成错误进行分类。
- R2H:构建多模态导航助手以响应帮助
本文提出了一种新的机器人辅助人类在导航任务中的能力的评估方式 R2H,并通过任务导向的响应生成模型 SeeRee 来提高其能力,自动和人工评估结果表明 SeeRee 通过视觉信息提供了更加有效和信息量更大的响应.
- SimOAP: 通过过采样和后评估提高基于人物角色的对话生成的一致性和连贯性
本文提出了一种简单而有效的两阶段 SimOAP 策略,即过采样和后评估。实验结果表明,该插件 SimOAP 策略可以提高骨干模型的性能,在自动和人工评估中均优于基准策略。
- SIGIR双语义知识组合的多模态对话系统
提出了一种名为 MDS-S2 的新型多模式任务导向对话系统,通过从知识库中获取相关属性和关系知识,设计了多级知识组成模块以及一组潜在查询变量以实现表征级别的语义规范化来解决文本响应生成过程中的关键问题。
- ACL响应条件的交替预测
本文提出一种模型,该模型将对话历史和下一个讲话者想要说的内容作为条件来预测对话的结束,比基线模型在各种指标上的表现更好。该模型可作为一个增量响应排名器,在各种场景中得到应用。