- 利用显式推理进行常识增强式对话模型中的推理整合
通过将常识推理分解为明确步骤,从而更好地生成、选择和整合常识来提高对话交互的自然性、参与度、特定性和整体质量,从而在常识推理增强的响应生成领域取得了最新技术进展。
- 适用于对话的不同技术方法评估:微调还是 RAG?
研究了大型语言模型(LLMs)在人机对话中的回应生成任务中的限制及不同对话类型下的 LLM 适应技术的评估方法,发现没有普遍适用的最佳适应技术,包括人工评估以避免自动测量引起的不准确预期和结果。
- 多语言对话代理的准备工作被低估了
多语种任务对话代理人的创建在训练数据获取成本高的情况下具有挑战性,通过改进训练数据效率的研究趋势,我们首次展示了上下文学习在解决多语种任务对话代理人中的有效性。通过将具有挑战性的对话状态跟踪 (DST) 子任务分解为更简单、更适合上下文学习 - 统一演示选择与压缩以实现上下文学习
ICL 的框架 UniICL 通过一个冻结的 LLM 统一了演示选择、演示压缩和响应生成,并实现了有效的缩放,从 4-shot 到 64-shot 的 ICL 提高了 12 倍。
- COLINGDuetSim: 使用双大型语言模型构建面向任务对话的用户模拟器
DuetSim 是一个利用大型语言模型的创新框架,通过采用两个语言模型来生成任务导向的对话,既增加了回答的多样性又提高了准确性,通过在 MultiWOZ 数据集上的实验证实了其效果。
- ERAGent: 提升检索增强语言模型的准确性、效率和个性化
通过引入增强型问题重写器和知识过滤器以提高检索质量,以及引入检索触发器来减少不相关的外部知识检索,ERAGent 框架在改善响应准确性,提高效率和个性化方面表现出优势,对于 RAG 领域的进展和实际系统的应用具有潜力。
- 创造性束搜索
大型语言模型正在革新多个领域,包括人工创造力。本文介绍了一种名为创造性束搜索的方法,利用多元束搜索和以大型语言模型为评判者的方式进行回应生成和回应验证。定性实验结果表明,我们的方法可以提供比标准抽样技术更好的输出。同时展示了回应验证步骤对于 - 使用状态转换图和大型语言模型模拟任务导向型对话
该研究探讨了 SynTOD,一种用于开发端到端任务导向对话系统的新型合成数据生成方法,该方法能够处理意图分类、槽填充、对话问答和检索增益响应生成等复杂任务,而无需依赖众包或现实世界的数据。实验结果显示,使用受图引导的响应模拟能够显著提高意图 - 从用户编辑中学习潜在偏好,使 LLM 代理人保持一致
基于用户编辑的互动学习语言代理,通过历史编辑数据推断用户的潜在偏好,定义推动未来回复生成的提示策略,实现代理和用户偏好的对齐,减少用户编辑成本和提高性能。
- ACL基于证据驱动的在线虚假信息检索增强响应生成
通过从科学性来源收集支持证据并基于这些证据生成反错误信息响应,RARG(检索增强的在线错误信息响应生成)方法在 COVID-19 案例中展示了在数据集上始终优于基准的产生高质量反错误信息响应。
- COLING通过一致对齐提升大型语言模型的鲁棒性
定义了指令不一致问题并提出了两阶段训练框架,在第一阶段通过相似指令增强帮助模型跟随指令,第二阶段通过区分相似回应中微小差异来提高模型的多样性和人类期望的一致性,并通过自奖励训练过程来验证该框架的有效性。
- 加强面向抑郁症诊断的聊天交互,通过心理状态追踪
通过将心理状态追踪(POST)整合到大型语言模型(LLM)中来明确地引导以抑郁症诊断为导向的聊天,从而提高了抑郁症诊断方面聊天中所有子任务的性能。
- 语言模型通过外部指标反馈自我提升
通过 Proxy Metric-based Self-Refinement,我们引入了一种方法来帮助 Large Language Models(LLMs)通过外部度量反馈逐步在质量关键维度上优化自己的回复,从而得到更好的最终回复。我们将 - TOAD: 任务导向的自动对话系统具有多样化的回应风格
鉴于大型语言模型的最新进展,下一代虚拟助手的期望包括在各种使用场景中增强自然性和适应性。为了解决为面向任务的对话(TOD)创建高质量的注释数据的缓慢和昂贵问题,我们介绍了面向任务的自动对话(TOAD),以及其自动生成流程。TOAD 数据集模 - ACL通过上下文感知的角色修正,在长期对话中增强常识辅助的记忆构建和管理
通过经过设计的策略,本文提出了一种新的框架,利用常识为多轮对话中的回复生成提供更丰富的人物信息,从而改善回应质量。
- UniMS-RAG: 个性化对话系统的统一多源检索增强生成模型
利用统一多源检索增强生成系统 UniMS-RAG,综合三个子任务:知识源选择、知识检索和回复生成,通过训练在序列到序列模型中自适应地检索证据和评估相关性,实现了个性化回复生成,并在两个个性化数据集上展示了其最新的性能。
- 生成式大型语言模型与同伴患者对解读普通患者的实验室检测结果的回答质量比较:评估研究
利用大型语言模型 (LLMs) 为患者提供对实验室检测相关问题的相关、准确、有帮助和安全的回答的可行性进行评估,并通过采用增强方法来解决潜在问题。我们通过从 Yahoo! Answers 收集实验室测试问题和答案数据,并使用 LangCha - ACL协调混合对话:对话中基于个性的混合编码响应生成
该研究探讨了多语言混合对话中的回应生成问题,并介绍了一种利用从对话中无监督获取的大五人格特质来提高回应生成性能的新方法。实验结果表明,将人格融入对话背景可以显著增强生成回应的上下文相关性,并提高模型的整体性能。
- 通过直观 - 分析差异诊断进行医疗对话生成
医学对话系统应用了 Intuitive-then-Analytic Differential Diagnosis (IADDx) 方法进行差异诊断,并通过检索顺联结合图增强的分析过程提供疗效理论和指导。该研究验证了该方法的有效性,并展示了其 - LLM 在口语对话中的稳健性研究
使用 LLM(Large Pre-Trained Language Models)评估了在口语任务导向对话中的性能,结果表明 LLMs 默认情况下对口头噪音不够鲁棒,但在正确的口头 TOD 数据集上进行微调 / 训练可以获得更强的性能。