基于连贯性的神经主题建模
本文提出了一种新颖的多样性感知一致性损失函数,在不需要预训练或额外参数的情况下,显著提高了神经主题模型的性能,同时维护了高度多样性和语料库水平的一致性得分。
May, 2023
通过将自动话的一致性与两种最广泛接受的人类判断任务进行比较,我们解决了话题模型评估中的验证鸿沟。与人类评估相比,自动评估宣布了一个获胜模型。
Jul, 2021
通过对话题模型进行评估,发现神经网络模型(NTMs)在实际任务中的效果优于传统模型,且自动评估指标无法提供全面的话题建模能力。
Jan, 2024
本研究提出一种层次神经网络模型,通过多任务学习,同时预测文档层次的信息连贯得分和词级别的语法角色,利用两个任务之间的归纳转移,提高模型泛化能力,并在不同任务中达到了新的最优表现。
Jul, 2019
本研究提出了一种基于 LLM 的方法,受到人类主题评估的启发,实现了语境化主题连贯性(CTC)度量,其在自动化主题连贯性方法方面表现出色,可应用于短文本,并不容易受到高分却无意义的主题干扰。
May, 2023
本文介绍了关于主题模型的研究,探讨了如何将 contextual embeddings 应用于 neural topic models,以提高主题模型的准确性和一致性,并且研究结果表明,对自然语言处理模型的改进将会对主题模型产生积极影响。
Apr, 2020
本文提出了一种修改后的神经模型以检测语料库中主题,并提出了一种新的度量标准来评估检测到的主题。这个新模型建立在嵌入式主题模型的基础上,加入了一些修改,例如文档聚类。数值实验表明,新模型表现良好,而且无论文档的长度如何都表现良好。可以更有效地计算新度量标准,与主题连贯性等广泛使用的度量标准相比,提供了有关检测到的主题可理解性的可变信息。
Jun, 2023
本文通过设计一系列测试集来评估神经语言模型是否编码了逻辑关系、内在一致性和世界知识这些与上下文有关的复杂语言结构,研究发现通过这样的测试集,可以更好的评估语言模型的质量。
May, 2021
我们提出了一种名为 “协调主题建模” 的新问题,旨在通过复用现有知识来更加可解释地表示语料库,并设计了一种基于嵌入式的协调主题模型(ECTM),该模型通过引入主题和文档级别的监督和自训练机制来解决此问题,并在多个领域进行的广泛实验表明我们的模型优于其他基线。
Oct, 2022