- 评估 LLMs 用于知识图谱补全的适用性
大型语言模型 (LLMs) 能够解决与知识图谱相关的任务,如知识图谱补全,尤其在零次或少次训练的范式下。然而,它们被称为会产生错误的答案,或以不确定的方式输出结果,从而导致错误推理的回答,即使它们满足用户的需求。为了强调知识图谱相关任务中的 - 外部规划控制的大型语言模型对话式疾病诊断
通过利用大型语言模型来开发一个医学任务导向的对话系统,该系统模拟人类医生与患者对话以推断诊断结果,研究使用外部规划器和大型语言模型改进了先前人工智能系统在信息收集和自然语言理解等方面的局限性。通过模拟医生的疾病筛查和鉴别诊断的两阶段决策过程 - PerSHOP -- 波斯购物对话系统建模的数据集
本文通过众包开发了包含近 22k 个发言、15 个不同领域和 1061 个对话的波斯语对话数据集,并对其进行了标注以训练模型。同时,我们提出了一些用于自然语言理解(NLU)任务的基准模型,其中,意图分类的 F-1 得分约为 91%,实体抽取 - 基于语言模型的对话系统演化调查
通过将 LM 的突破划分为四个不同阶段,本文调查对话系统的历史轨迹,阐明其与语言模型的复杂关系,提供了与 LM 突破对齐的时间视角,对最新的研究成果进行全面回顾,并讨论了新兴课题和开放挑战,提供了 LLM-based 对话系统未来发展的有价 - 适应口语对话的基于文本的对话状态追踪器
本文描述了我们在 DSTC11 中参与的具有极大成功的模型的工程努力,该模型由三个主要模块组成:(1) 自动语音识别误差校正,(2) 基于文本的对话系统用于估计插槽和值,(3) 后处理用于恢复估计的插槽值的错误。我们的实验证明了对于口语对话 - ACLOpenSLU: 一个统一、模块化、可扩展的语音理解工具包
OpenSLU 是一个基于 PyTorch 的开源工具包,用于提取用户查询的语义意义,并可支持单意图和多意图场景,它采用了 10 种 SLU 模型,是高度模块化和可扩展的。
- SIGIR对话转行动:通过动作级别生成构建面向任务的对话系统
提出了一种基于行动级别生成的任务导向对话系统,采用基于序列到序列模型的方法,将大规模对话中的每个自然语言响应表示为一系列对话行动,并将其转换为语音响应,实现了控制能力和效率之间的平衡。
- EMNLPQ-TOD: 基于查询的任务导向对话系统
本文介绍了一种新的基于查询驱动的任务对话系统,即 Q-TOD,该系统可将对话上下文的关键信息提取为查询,进而用于检索相关的知识记录以形成响应生成,它能够显著缓解领域适应性和知识库可扩展性的问题,实验结果表明,Q-TOD 优于现有系统并在公开 - 你跟得上我吗?”: 对话状态跟踪近期方法综述
对话状态跟踪是对话系统中的重要环节,虽然神经方法实现了显著的进展,但对话系统的一些关键方面,如可拓展性等仍未得到充分探索,本文提出了未来研究的几个方向。
- 基于用户和任务的对话系统引导
TacoBot 是一个任务导向的对话系统,旨在协助用户完成多步骤的烹饪和家庭维护任务,它具备准确的语言理解、灵活的对话管理和引人入胜的响应生成,通过各种数据增强策略来训练先进的神经语言处理模型并持续改进对话体验。在半决赛结束时,TacoBo - 面向任务导向的对话策略学习中强化学习方法的最新进展和挑战综述
本文综述了基于强化学习的对话策略学习中的最新进展和挑战,并将近期方法归类为强化学习的基本元素,以期为未来的对话管理研究提供一些启示。
- EMNLP联合槽建模改善对话状态追踪
通过在对话系统中使用 TripPy-MRF 和 TripPy-LSTM 联合建模槽,可以更好地跟踪任务导向型对话系统中的状态。测试结果表明联合建模策略在多 WoZ 2.1 数据集上有效,从而将最新技术推向了 61.3。
- SIGIR以任务为导向的对话系统作为自然语言生成
本文提出了一种基于大规模预训练模型(如 GPT-2)的任务驱动对话系统纯自然语言生成任务,以简化复杂的词语替换处理,但是直接使用会遇到对话实体不一致性和预训练模型精调时的灾难性遗忘问题,因此我们设计了一种新的 GPT-Adapter-Cop - ACL迭代网络剪枝、扩展和掩盖的面向任务型对话系统的连续学习
本文提出了一种有效的迭代网络剪枝、扩展和掩蔽(TPEM)的持续学习方法,它将网络剪枝用于保留旧任务的知识,采用网络扩展来为新任务创建自由权重,以及引入任务特定的网络掩蔽来缓解旧任务的固定权重对新任务的负面影响。在三个基准数据集的七个不同任务 - AUGNLG: 自训练数据增强的小样本自然语言生成
本篇论文提出了一种名为 AUGNLG 的新型数据增强方法,将自我训练的神经内存模型与少量训练的神经语言理解模型结合起来,自动从开放领域的文本中创建 MR-to-Text 数据,以提高自然语言生成的效率并在 FewShotWOZ 数据上表现优 - ACLOutFlip: 通过自然语言攻击生成越领域样本来进行未知意图检测
本文提出一种名为 OutFlip 的方法来生成多领域样本,以帮助意向分类模型更好地发现超范围的输入,该方法将一个白盒自然语言攻击方法 HotFlip 修改成生成多领域样本的方式。
- IJCAI使用神经潜在变量模型进行对话状态归纳
本文提出了对话状态归纳任务,在未标记数据上使用两种神经潜在变量模型自动挖掘客户服务对话记录中的对话状态,并取得了有效的结果。此外,配备了归纳的对话状态后,一种最先进的对话系统表现出比不使用对话状态模块更好的性能。
- EMNLP对话状态追踪:分类还是生成?
本文提出了 Point-Or-Generate Dialogue State Tracker (POGD),它从两个角度解决对话状态跟踪任务,并在所有插槽之间共享参数以实现知识共享和可扩展性,其子模块的训练过程被制定为一个多任务学习过程以进 - 任务导向式对话的多动作策略建模
本文比较了多种模型在预测每个对话回合多个 Dialog Management 决策动作方面的性能,并提出了一种基于 gCAS 模型的新策略模型,实验结果表明 gCAS 模型优于其他模型。
- 面向任务对话的用户建模
本论文提出一种基于神经网络的端到端用户仿真模型,用于对话系统的自动评估和训练,采用分层序列到序列模型,并利用隐变量模型引入随机变化,以提高仿真用户响应的多样性,并制定了目标正则化机制,以惩罚用户对初始用户目标的偏离。