通过使用改良后的 VRNN 模型和离散潜在向量来提取对话结构,我们的方法在预测未见数据方面具有优异性能,并在加入对话结构后的奖励功能设计实现了更快的强化学习收敛和更好的结果。
Apr, 2019
本文研究了如何将更丰富的结构分布用于深度神经网络中的嵌入式分类推理,通过两种不同的结构注意力网络:线性链条件随机场和基于图形的解析模型的实验,展示了这些结构的注意力网络超过了基线的注意力模型在各种合成和真实任务中的表现。
Feb, 2017
通过结构化的注意力机制来获得文本的 RST 语篇树结构是一种学习蕴含语篇结构的潜在表示的有吸引力的替代方法。通过评估其他与语篇相关的任务和数据集后,我们发现这种方法并不能很好地捕捉文本的语篇结构,即使模型做了一些结构性的改进,也不能和基于现有语篇分析器的语篇依存树相提并论。最后,消融研究表明,结构化的注意力机制甚至有时会损害性能。
Jun, 2019
这项工作引入了一种无监督的学习层次对话结构的方法,包括对话行为和子任务。结构显示对于三个会话级理解任务,包括对话模型的优化是有用的。此外,通过自动摘要,学习的有限状态子对话网络是可解释的。
May, 2022
本文介绍了一个关注机制的结构化表示学习框架,可以预测图像类别标签和注意力映射,并在没有其他监督的情况下以端到端的方式进行学习,改进了性能,并在标准场景识别和细粒度分类基准测试中取得了最新成果。
May, 2018
本文介绍了一种用于解释任务对话建模的新型系统,基于离散潜变量表示对话行为。该模型基于变分循环神经网络,无需显式的语义信息。与以前的工作不同,我们的方法分别对系统和用户轮次进行建模,同时执行数据库查询建模,使得该模型适用于任务对话,同时生成易于解释的操作潜变量。我们展示了我们的模型在三个数据集上以较少的监督下在困惑度和 BLEU 方面优于以前的方法,并提出了一种衡量对话成功的新方法,无需专家注释。最后,我们提出了一种关于系统操作的潜变量语义的新方法来解释。
Sep, 2022
本文提出了使用结构化融合网络将显式对话结构加入神经对话系统的若干方法,该方法在 MultiWOZ 数据集上表现稳定并具有更好的域通用性、在数据减少的情况下性能更好,并且具有强大的强化学习能力。
Jul, 2019
本文介绍了一种知识引导的结构注意力网络 (K-SAN) 模型,其是循环神经网络 (RNN) 的推广,此模型可以自动识别关键的子结构并加以利用,以提高对于自然语言理解的性能,表现优于基于神经网络的现有框架。
Sep, 2016
提出了一种新颖的基于多层结构化自我关注机制的深度神经网络,在多实例学习框架下,利用双向循环神经网络进行远程监督关系抽取,该模型显著优于现有基线模型。
Sep, 2018
本文提出一种可以在没有语篇分析器或额外注释的情况下,从数据中学习具有结构感知能力的文档表示的模型,该模型通过将可微分非项目句法分析算法嵌入神经模型,使用注意机制来结合结构偏置,从而产生具有解释性和意义的中间结构,并在不同任务和数据集上实验验证表明,该模型在文档建模任务中取得了最先进的结果。
May, 2017