使用深度语法树和字符串的口语对话生成模型
本论文提出并解决了通过两种文本生成范例 —— 统计机器翻译和深度学习,生成连贯故事的任务。使用两种 SMT 方法和一个深度 RNN 架构,将可变长度的输入描述编码为对应的潜在表示,并解码以生成形式完备的故事总结。在一个公开数据集上,利用常见的机器翻译和总结评估方法证明了所建议方法的有效性。
Jul, 2017
我们提出了一种基于句法树的语法引导生成模式,通过解码过程的两个部分:(1)对给定源句子中词汇化的句法上下文中的每个成分预测填充文本;(2)映射和扩展每个成分以构建下一级语法上下文以生成自然语言文本,并在重述生成和机器翻译上进行了实验。与自回归基线相比,该方法在有效性和可解释性方面更加出色。
Jun, 2023
通过生成具有树遍历顺序的目标句子的新方法,本研究旨在提高现有系统的性能。此外,还引入了一个名为 SenTree 的模块来生成近似二叉树,并提出了一个基于该方法的联合训练框架,结合生成对抗网络的内在机制。
Jun, 2024
该论文提出了一种新的框架,将对话状态建模为固定大小的分布式表示,并使用注意机制查询知识库,以解决任务导向的对话系统中的问题。实验结果显示,这种框架在自动评估和人类评估上都明显优于其他基于序列到序列模型的模型。
Jun, 2018
比较基于单词和字符的序列到序列模型在数据到文本自然语言生成方面的表现,进一步分析了两者输入表示之间的差异和生成文本的差异性,并通过对模板产生的合成训练数据的控制性实验展示神经模型学习新组合模板的能力。
Oct, 2018
本文介绍了一种基于编码 - 解码循环神经网络的数据驱动用户模拟器,能够更具上下文准确输出用户意图,相较于基于议程和 n-gram 的模拟器,在 DSTC2 数据集上获得更高的 F-score,展示了更精细分类用户行为的能力。
Jun, 2016
本研究针对面向任务对话系统中语言理解的数据增强问题,提出了基于序列到序列生成的数据增强框架来提高模型的性能,该框架利用训练数据中某个话语的同义替代品来增强数据,将多样性排名纳入话语表示中,生成多样性增加的话语,实验证明在仅有数百个话语的情况下,在 Airline Travel Information System 数据集和 Stanford Multi-turn,Multidomain Dialogue 数据集上都取得了显著的 6.38 和 10.04 分数提高。
Jul, 2018
通过使用基于神经网络的语言生成器,采用多种数据表示和提升方法,我们在餐饮、电视、电脑三个领域展开了实验,证明我们的方法比同类模型在不同评估方法下表现更优秀。
May, 2018
通过引入句法归纳偏差,使用依赖分析树驱动转换器模型迭代生成句子,实验证明其比 LSTM 和 Transformer 更有效,并具有可比拟的多样性且需要较少的解码步骤,生成过程允许对生成文本的句法构造进行直接控制,从而实现风格变形的归纳。
Apr, 2020
该研究探讨了基于深度神经网络的自动生成响应的模型,着重讨论了结构松散的任务,如基于单词级别的对话响应生成,并提出了基于生成的编码器 - 解码器神经网络架构的新模型,以增强对话的长期历史纪录、建模对话中的不确定性和歧义性、生成具有高级组合结构的响应。
Nov, 2016