- 历史是生活的导师:利用神经嵌入进行古罗马文学的动态主题建模
使用 BERT 嵌入实现的动态主题模型与传统的统计模型(LDA 和 NMF)进行比较,模型主题遍布整个罗马文学存档,定量评估偏向统计模型,而定性评估对神经模型有更好的洞察力,此外,神经主题模型对超参数配置不敏感,使动态主题建模对历史研究人员 - 主题 Diff: 一种用于多模态对话情绪检测的主题丰富扩散方法
基于视觉、语言和声学等多模态,我们提出了一种面向多模态对话情感检测任务的主题丰富扩散(TopicDiff)方法,通过将扩散模型与神经主题模型相结合,解决了神经主题模型在捕获主题信息时存在的多样性缺失问题,并通过详细评估证明了 TopicDi - TopicAdapt - 一种企业间主题自适应方法
该论文介绍了一种神经主题模型 TopicAdapt,可以从一个相关的源语料库中适应相关主题,并在目标语料库中发现源语料库中缺失的新主题,实验结果表明,该模型在多个领域的多个数据集上表现优于现有的主题模型。
- 可解释的主题增强异构来源的论点挖掘
提出一种新颖的可解释的主题增强的论证挖掘方法,通过使用神经主题模型和语言模型,在异构来源的数据中识别与核能相关的论证文本,并捕捉论证中句子级的主题信息。实验结果表明,该模型相比现有基准模型具有优越性。
- ICML嵌入式聚类正则化有效的神经主题建模
本文提出了一种新的神经主题模型 —— 嵌入聚类正则化主题模型 (ECRTM),通过嵌入聚类正则化 (ER) 使每个产生的主题包含不同的词义,从而缓解了主题崩溃问题,并在主题质量、文档主题分布和下游分类任务等方面持续超越了最先进的基线。
- COLING基于预训练嵌入的多语言和多模态主题建模
本文介绍了一种新颖的多模态多语言(M3L)神经话题模型 M3L-Contrast,用于可比较数据,将多种语言和图像映射到共享的话题空间中,该模型利用预训练的文本和图像嵌入,抽象不同语言和模态之间的复杂性,并产生对齐的语言特定话题。同时,该模 - EMNLP主题引导的抽象多文档摘要
该论文提出了一种基于异构图和神经主题模型的抽象多文档摘要模型,采用图到序列的框架,同时训练主题和摘要模块以提高性能和生成高质量主题。
- EMNLP为文本摘要增加和掌控全球语义
本研究介绍并应用了一种神经主题模型以及归一化流以捕捉文档的全局语义,并将其整合到摘要模型中,以解决 Transformer-based 模型在摘要生成中存在的短程依赖问题,同时在五个常用文本摘要数据集上表现优于现有方法。
- EMNLPPhrase-BERT:基于 BERT 的短语嵌入改进及应用于语料库探索
本文提出了一种对 BERT 进行微调的方法(Phrase-BERT),使其能够生成更强大的短语嵌入,Phrase-BERT 利用一个由短语描述形式多样的同义词集以及从 Books3 语料库中挖掘的大规模情境短语数据集生成模型,并在各种短语级 - AAAI旅游出行意向建模的城外推荐
提出一种基于旅游意图的出城推荐框架,使用图神经网络表示用户的家乡签到偏好和地理约束,结合神经主题模型构建用户专属的旅游意图,通过非线性映射和矩阵分解方法推荐用户在出城地点感兴趣的 POI。
- AAAI面向客户服务的面向主题的口语对话摘要与关键词感知主题建模
本文提出了一种基于主题增强的两阶段对话摘要生成器并结合注意力感知神经主题模型 (SATM) 来进行主题定向对话摘要,展示了其在客户服务数据集上的优越性。
- 不带重新参数化技巧的离散变分循环主题模型
本文介绍了如何使用神经变分推断学习具有离散随机变量的神经主题模型,该模型不依赖于随机反向传播处理离散变量,结合主题模型分析整个文档的话题连贯性。使用神经变分推断,在多个语料库中,我们展示了改进的困惑度和文档理解,考虑了先验参数的影响,同时证 - COLING利用主题感知图神经网络增强抽取式文本摘要
本文提出了基于图神经网络(GNN)的抽取式摘要模型,并整合了深度神经主题模型(NTM)来发现潜在主题,从而提供句子选择的文档级特征,实验结果表明,我们的模型在 CNN/DM 和 NYT 数据集上取得了最先进的结果,在由较长文档组成的科学论文 - EMNLP使用知识蒸馏改进神经主题模型
使用知识蒸馏将概率主题模型和预训练转换器的最佳属性结合起来,以提高主题质量和性能。
- EMNLP融合文档关系图的神经主题建模
本文介绍了一种名为 Graph Topic Model (GTM) 的基于图形神经网络 (GNNs) 的神经主题模型,通过信息交互捕捉图形节点之间的关系,将文档和词汇转化成为图中的节点,并根据共现性连接,通过图卷积汇聚邻居节点信息从而通过共 - Wasserstein 自动编码器用于主题建模
我们在 Wasserstein 自编码器(WAE)框架中提出了一种新颖的神经主题模型。通过直接在潜在文档 - 主题向量上施加狄利克雷先验,利用潜在空间的结构并应用合适的核,在最小化最大均值差异(MMD)中进行分布匹配,我们发现 MMD 在匹 - 主题组成神经语言模型
我们提出了一个名为 TCNLM 的话题组成神经语言模型,它通过神经话题模型来学习文档的全局语义连贯性,并通过混合专家语言模型来学习本地单词顺序结构,同时使用矩阵分解方法使模型更高效地训练,可生成有意义的话题和句子。