提出了一种基于注意力机制的神经网络模型,用于同时执行关键步骤(意图检测、填充构構)进行语音理解和对话系统处理。该模型基于编码 - 解码框架,将对齐信息的注意力融合到了模型中,其表现优于传统模型。
Sep, 2016
本文提出了一个神经对话模型,用于生成帮助台响应,其通过回归网络对话意图进行建模,并结合一个基于意图表示的注意力模型。 此外,它还采用了 IDF 术语来避免生成非特定响应。 实验表明,该模型在纯生成模型和检索模型下表现均好。
Jun, 2016
本文研究探讨了应用于对话行为检测和关键词提取的神经注意力模型在序列分类任务中的应用和作用,并通过实验结果和可视化分析验证了该模型在去除噪音和提取关键信息方面的表现。
Mar, 2016
通过使用一个循环网络来明确地建模词语先前和随后的注意力水平之间的关系,我们改进了 Bahdanau 等人(2014)的注意力模型,并且我们的参数化注意力模型的实验表明其可以提高翻译质量。
Jul, 2016
本文提出了一种基于 Transformer 的端到端架构方法,在自动语音识别中精确建模跨话语的语境依赖,通过引入上下文感知残余注意机制,对先前语音的上下文进行编码,同时,还采用条件解码器框架将历史语言信息融入到当前预测中,结果表明该方法在几种公开对话语料库上都取得了持续的改进
Jul, 2022
本研究采用 RNN 型对话模型和动态注意力机制建模了一种连贯的会话延续方法,并通过应用到开放领域和封闭领域的对话数据集进行了评估,结果显示出在多个指标上显著优于基线模型,同时还能通过主题建模进行更进一步的连贯性提升。
Nov, 2016
我们介绍了一种利用循环神经网络语法编码器和新颖的注意力递归神经网络解码器的模型,利用策略梯度强化学习来在源语言和目标语言上诱导无监督树结构,从而训练出在字符级数据集中相当不错的分割和浅层解析表现,接近注意力基准。
Sep, 2017
我们提出了一个新的神经会话模型,其不仅读取和生成文本信息,还能够识别和生成面部表情,以及基于对话中的情绪适应其响应。该模型采用 RNN 编码器 - 解码器架构,通过观察电影进行训练,并通过自动度量和人类研究展示了其生成更自然对话的能力。
Dec, 2018
本文探讨了在自然语言推理的背景下,将注意力机制应用到句法树这种更加丰富的拓扑结构上,不仅可以利用底层的句法信息,还可以使注意力更具可解释性。结果表明,该方法非常有效,并进行了广泛的质量分析,提取出了为什么以及如何工作的见解和直觉。
本研究提供详细分析和比较注意力和传统对齐,在一些情况下表明注意力不同于对齐且能捕捉除对齐以外的有用信息。
Oct, 2017