主题建模的少样本学习
本文研究表明,结合简单的主题提取方法的有监督少样本学习可以在仅使用每个类别少量标记文档的情况下,优于无监督主题建模技术,生成连贯的主题。
Dec, 2022
在本论文中,我们采取了一种新的方法来解决短文本主题建模中的数据稀疏问题,通过利用现有的预训练语言模型将短文本扩展为更长的序列。此外,我们提供了一种简单的解决方案,通过扩展神经主题模型来减少预训练语言模型生成的与主题无关的噪声文本的影响。我们观察到我们的模型能够显著改善短文本主题建模的性能。在极度数据稀疏的情况下,对多个真实数据集进行的大量实验证明了我们的模型可以生成优质主题,胜过现有最先进的模型。
Oct, 2023
这篇论文介绍了神经方法在主题建模中的应用,特别是提供可参数化分布以允许可变参数下的后向传播,同时提出了一种递归网络,能够类似于贝叶斯非参数主题模型发现数量概念上无限的主题,在 MXM Song Lyrics,20NewsGroups 和 Reuters News 数据集上得到了实验结果的证明。
Jun, 2017
本文提出了一种用于神经主题建模的终身学习框架,可以连续处理文档集流并通过从多个来源的知识转移积累主题,以更好地处理稀疏数据,并通过新的选择性数据增强、共同训练和主题正则化方法来最小化灾难性遗忘,作者通过建模三个稀疏的文档集任务进行证明其提出的终身神经主题建模(LNTM)框架具有改良的表现。
Jun, 2020
本文介绍了使用神经网络模型解决文本分类中少样本或无标注样本问题的方法,通过预训练 Siamese Networks 嵌入文本和标签的方式得到了与基于文本蕴含的方法相当的性能,同时增加了标签调整方法,可在少样本的情况下仅通过改变标签嵌入来完成模型调整。
Mar, 2022
本文介绍了一种神经语言模型,可以通过类似主题模型的架构将文档上下文(而非当前句子)作为简洁的表征加入模型中。实验表明,这种模型在语言模型困惑度和主题相关性方面优于仅基于句子的模型和标准 LDA 主题模型。同时,该模型还具有生成单个主题关联句子的功能,为主题的解释提供了另一种方式。
Apr, 2017
本文研究了如何在神经形态多芯片系统(NMS)上训练概率主题模型,提出了三种算法,一种是批量算法,另外两种是在线算法,使用了新颖的随机优化方法和高效的能量和存储策略,并成功用于 pLSI 和 LDA 训练,结果表明这些算法不仅能够与常规计算机算法相媲美,而且更适合在 NMS 上实现。
Apr, 2018
通过使用大型语言模型 (LLMs) 进行主题建模的两种方法,即并行提示和顺序提示,本文克服了传统主题模型在短文本上推断潜在主题时面临的挑战,并证明这些方法能够识别出比现有方法更连贯的主题,同时保持引发主题的多样性。此外,本研究发现所推断的主题充分涵盖了输入文本,而几乎没有产生虚构的主题。
Jun, 2024