全局序结构下的主题和意图联合建模
通过主题分割和话语解析,我们提出了一种无监督的两种结构的互学习框架,以实现对话系统的全局目标和话语策略的一致性。实验结果表明,我们的方法在两个对话话语数据集(STAC 和 Molweni)以及对话主题数据集(Doc2Dial 和 TIAGE)上优于所有强基准模型。
May, 2024
提出一种新的贝叶斯主题模型,以学习语篇级别文档结构,通过知识先验和排列分布约束隐藏式主题分配,实现了全局主题选择和排序的偏向性,并在跨文档对齐,文档分割和信息排序三个不同层级的任务中均获得了较好的表现。
Jan, 2014
本文提出了一种高斯混合神经主题模型(GMNTM),该模型将单词的顺序和句子的语义意义同时纳入了主题建模,实验结果表明,相比现有的主题建模方法,GMNTM 在困惑度、检索准确性和分类准确性方面获得了显著的改进。
Feb, 2015
通过使用会话树以及区分话语角色,本文提出了一个无监督模型来提取微博信息中的主题并进行总结,结果表明这个模型能够有效地发现微博会话中摘要值得关注的内容。
Sep, 2018
我们提出了使用统一语义话语结构(S3)来表示文档语义的方法,通过将文档级修辞结构理论(RST)树和句级抽象意义表示(AMR)图结合起来构建 S3 图,实现对文档语义的准确捕捉。我们还设计了一个标题生成框架,其中 S3 图被编码为上下文特征,并且通过一种分层结构修剪机制来动态筛选图中的冗余和非必要的节点,实验证明我们的方法在两个标题生成数据集上持续优于现有的最新方法。
Mar, 2024
本文介绍了一种神经语言模型,可以通过类似主题模型的架构将文档上下文(而非当前句子)作为简洁的表征加入模型中。实验表明,这种模型在语言模型困惑度和主题相关性方面优于仅基于句子的模型和标准 LDA 主题模型。同时,该模型还具有生成单个主题关联句子的功能,为主题的解释提供了另一种方式。
Apr, 2017
该研究介绍了一种将主题模型与语言模型相结合的方法,扩展了语言理解的范围,通过主题进行了文档级上下文的抽取,并提出了一种可解释的主题表征,将主题语义加入到语言模型中。通过建模每个句子中的话题,保留了句子与文档主题关联,提出了一种既有隐藏话题,同时又有可解释话题的神经组合语言模型。该模型在多项任务中展现了显著提升的能力,包括语言建模、词义消岐、文档分类、检索和文本生成。
Jun, 2020
本文介绍了一个基于多层生成模型的主题模型深度架构,通过该模型可发现可解释的主题层级结构,对于提高主题模型的建模精度和可解释性具有显著作用。
Nov, 2018
本文提出了一个无监督框架,用于共同建模微博交谈中的主题内容和话语行为。具体而言,我们提出了一个神经模型来发现表示会话涉及什么(即主题)和反映参与者表达意见的词群(即话语)。广泛的实验表明,我们的模型既能产生连贯的主题又能反映有意义的话语行为。进一步的研究表明,我们的主题和话语表征可以增强微博信息分类的性能,特别是在分类器联合训练的情况下。
Mar, 2019