- ACL对话生成的白盒多目标对抗攻击
通过提出一种名为 DGSlow 的白盒多目标攻击方法,该方法通过梯度优化来平衡生成精度与长度,并通过适应性搜索机制来逐步制作仅有几个修改的对抗样本,并将其用于四个基准数据集的全面实验,成功率比传统的以准确性为基础的方法更高,同时还展示了强大 - 对话响应中的解码算法如何分配信息?
研究人类在对话中遵循 Uniform Information Density 原则的情况下,使用 GPT-2 在 Persona-Chat 数据集上生成响应,发现解码算法促进 Uniform Information Density 并不会生 - GPTEval:利用 GPT-4 进行更有效的人工智能对齐的自然语言生成评估
使用大型语言模型和一种具有连续思考特点的填充范式,提出了一种 NLG 质量评估框架,结合两种生成任务 —— 文本摘要和对话生成,使用 GPT-4 模型作为骨干模型,与以往方法相比性能更好。
- 使用层次行动探索的深度强化学习实现对话生成
本文提出一种新的双粒度 Q 函数,通过探索最有前途的响应类型来介入采样,从而解决自然语言行动空间巨大所带来的效率问题,在多个设计用于识别人类情感细节的奖励函数中,以离线强化学习的方式学习,我们的算法在实证研究中表现优于基线方法,进一步验证表 - GE-Blender: Blender 的基于图的知识增强
本研究提出了一种基于图形的方法,利用实体节点和命名实体标签预测来加强上下文中未见实体的表示,以解决在对话生成中未见实体的逻辑解释问题,并通过实验表明该方法在开放数据集 Wizard of Wikipedia 上优于现有方法。
- 非玩家角色对话的本体忠实生成
KNUDGE 是一种基于流行视频游戏的语言生成任务,旨在通过自然语言表述的任务和实体规范生成对话树,需要注意生成的话语必须忠实于游戏背景和人物关系,是创造逼真的游戏品质对话的未来工作的重要探索。
- AAAI通过混合潜变量实现多样化、相关性和连贯性的开放式对话生成
本文提出了一种基于连续和离散的混合潜变量方法(Hybrid Latent Variable method),并构建了一种 Conditional Hybrid Variational Transformer(CHVT)模型,该模型可以生成具 - EMNLP从大型预训练模型中引导知识,以实现无监督的知识驱动对话
本文探究了大规模预训练在知识引导对话中的应用。通过各种方法获取大型模型的知识,利用后验重加权和嘈杂训练策略进一步挖掘其价值,并在两个基准数据上进行了实验,结果表明其优于现有的最新方法。
- EMNLP朝向高效的对话预训练:具有可转移和可解释的潜在结构
本文提出了一种轻量级且透明的基于潜在结构的对话生成模型,通过解析离散潜变量来实现可解释性,实证表明该模型相对于四种强基准模型有更好的对话质量和更快的运行速度。
- EMNLP改进多轮情感支持对话生成的前瞻性策略规划
本文提出了一个使用多轮模式的情感支持会话系统 MultiESC,通过使用前瞻性启发式策略规划和用户状态建模来解决长期对话目标和用户情感的动态模态问题,实证结果表明 MultiESC 在对话生成和策略规划方面均明显优于竞争基线。
- MDIA:46 种语言多语对话生成的基准
本文介绍了 mDIA,这是第一个跨越低至高资源语言的大规模多语言对话生成基准。通过微调 mT5 和 DialoGPT 两种预训练模型,作者对 46 种语言中的真实对话进行了基线测试,结果表明 mT5 模型在 sacreBLEU 和 Bert - 跟随我:面向目标驱动推荐对话系统的会话规划
本文介绍了目标驱动的对话推荐系统,引入了 Target-driven Conversation Planning (TCP) 框架来规划对话,通过计划的内容来指导对话生成,试验结果表明我们的对话规划显著提高了目标驱动的推荐对话系统的性能。
- Persona-Knowledge 对话多上下文检索和增强解码方法
本文通过设计一种数据增强策略,运用神经问答检索模型,探讨了 Persona-Knowledge 的识别和响应生成任务,采用不同的解码技术进行对话生成,最终取得了 93.99% 的平均重合度和 23.62 分的 SacreBLEU 分数,成为 - 常识和命名实体感知的知识驱动对话生成
本文提出了一种通过利用大规模常识和基于命名实体的知识实现的新型开放域对话生成模型,该模型还利用了与每个话语相关的非结构化主题特定知识,并通过使用共指提高了常识知识。提出的模型利用多跳注意力层保留对话历史和相关知识的最准确和最关键的组成部分, - ACLBanglaNLG 和 BanglaT5:用于评估孟加拉低资源自然语言生成的基准和资源
本文提出 BanglaNLG,用于评估 Bangla 自然语言生成(NLG)模型的全面基准,并介绍了六个具有挑战性的条件文本生成任务和一个新的对话生成数据集。利用 27.5 GB 干净的 Bangla 数据集,预训练了 BanglaT5,一 - 对话生成的长期控制:方法与评估
本文提出了约束性的、long-term 控制对话生成的问题,并提出了一种检测其性能的新指标,并采用改进的基于检索的方法,该方法通过修改 logits 来提高长期控制的生成性能。通过在三个面向任务的对话数据集上的实验证明了我们的指标相对于当前 - ACL自然语言推理中的语义多样性
本文通过提出一种新的度量方法和一种称为 Diversity Threshold Generation 的新生成程序来改进对话生成,从而在多样性方面取得了显著进展。
- ACLFaithDial: 一个忠实的对话信息寻求基准
本研究提出了一种数据中心的解决方案,利用 FaithDial 数据集为基础,设计了识别和消除幻觉对话的模型,并证明 FaithDial 数据集可以作为高质量对话生成模型的训练信号,并且可推广到其他数据集上。
- ACL基于角色的对话生成模型无关数据操作方法
为了构建智能对话代理,针对当前有限的基于人物特征的对话数据不足以很好地训练对话生成模型的问题,提出了一种数据处理方法,该方法适用于任何基于人物特征的对话生成模型以提高其性能,并通过实验表明了其优越性。
- ACLDialoKG: 以知识结构为导向的任务型对话生成
本论文提出一种新的面向任务的对话系统 DialoKG, 通过将关系型知识看作知识图,并引入结构感知知识嵌入技术和知识图加权注意力掩膜策略来有效地将知识嵌入语言模型,实现人类化和信息化的对话。通过在多个标准基准数据集上的实证评估,展示了 Di