本文提出了一种上下文感知的谈话主题分类方法,通过引入对话上下文和对话行为特征,扩展了神经主题分类和无监督主题关键词检测的先前研究,以提高谈话中的主题识别准确性和预测用户评价指标。
Oct, 2018
本研究旨在设计一种基于自注意力机制的分层模型,以识别对话行为,并通过修改注意分布来关注局部和上下文语义信息,同时引入新的对话分割机制,分析对话长度和上下文填充长度对模型效果的影响。实验表明,该模型在 Switchboard 对话行为和 DailyDialog 两个数据集上均取得了 80.34% 和 85.81% 的准确率,并且通过可视化注意权重的方式展示了其可以显示地学习话语之间的上下文依赖关系。
Mar, 2020
本文研究 Dialogue Act 分类,提出了将上下文感知的自注意机制与分层循环神经网络相结合的方法,并在 SwDA Corpus 上证明了其在不同语义表征学习方法下的高精度表现。
Apr, 2019
本文探讨了是否自注意力在识别语音关键词方面是否真的不可替代,提出了一种高效的小型化门控多层感知机模型,证明该方法在语音关键词检测方面的性能表现强于自注意力方法且参数量更少。
Oct, 2021
为了更好地总结对话内容,我们提出了一种基于主题感知结构的指针生成器模型,该模型在使用具有层次结构的主题信息进行适应的同时,在提取和生成方面展现了卓越的性能。
Oct, 2019
本文提出了一个基于层级注意力双向 LSTM 网络的主题分割器,通过添加相干性相关的辅助任务和受限制自注意力来更好地建模上下文,从而超过了 SOTA 方法,并在领域转移设置中证明了其鲁棒性和在多语言场景中的有效性。
Oct, 2020
提出了一种基于双重注意力层级循环神经网络的对话行为分类模型,利用话题建模作为辅助任务和双任务特定注意力机制来捕捉对话行为和话题之间的交互信息,从而大大提高了 DA 分类的效果。
这项工作引入了一种无监督的学习层次对话结构的方法,包括对话行为和子任务。结构显示对于三个会话级理解任务,包括对话模型的优化是有用的。此外,通过自动摘要,学习的有限状态子对话网络是可解释的。
May, 2022
探索使用语音识别机器学习和深度学习技术进行关键词识别的重要任务,并实现了将原始波形转换为 Mel 频率倒谱系数作为模型输入的特征工程。通过尝试使用多种算法,包括混合高斯隐马尔科夫模型、卷积神经网络以及变种的循环神经网络,如长短时记忆和注意力机制,我们的实验表明带有双向长短时记忆和注意力机制的循环神经网络可以达到 93.9%的准确率。
Dec, 2023
该研究探讨了故事生成:创作系统可以在一个主题上构建连贯流畅的文本段落,使用一个大规模的数据集,通过分层式故事生成模型,研究人员成功地实现了模型融合,引入了新的门控多尺度自注意机制,并在自动化和人工评估中实现了显著的改进。
May, 2018