May, 2023
BERTTM:利用预训练语言模型的上下文化单词嵌入来进行神经主题建模
BERTTM: Leveraging Contextualized Word Embeddings from Pre-trained
Language Models for Neural Topic Modeling
TL;DR本研究开发了一种新型的神经主题模型,结合了来自预先训练的语言模型BERT的上下文化单词嵌入,无需使用任何词袋信息即可推断文档的主题分布,实验表明该模型在文档分类和主题连贯度指标方面优于现有主题模型,并可处理来自新到达文档的未见单词。