深度 NLP 模型中潜在概念的拓展发现
本文提出了一种基于 PLM 嵌入的联合潜在空间学习和聚类框架,通过联合建模主题 - 单词和文档 - 主题分布,有效地利用 PLMs 在主题发现方面的强大表示能力和出色语言特征,并在两个基准数据集上生成了比强劲的主题模型更加连贯、多样的主题,并提供更好的基于主题的文档表达形式。
Feb, 2022
本研究通过无监督方法分析表示空间中的潜在概念,并考察了预训练模型和微调后模型间的相似性。结论显示:较高层次的潜在空间向任务特定概念演变,而较低层次则保留了预训练模型获得的通用概念;某些概念向输出类别具有极性,并可用于生成对抗性触发器。
Oct, 2022
该研究探讨了语言模型内的概念形成和对齐,提出了一种识别语言模型中概念和它们之间层次组织的机制,从 Glove 到 ALBERT 和 T5 等不同的语言模型,利用这些模型生成的语义嵌入中的内在结构提取出概念的分类和层次关系,从而揭示了语言模型如何发展概念理解,并为进一步改善它们的推理能力和运用真实世界知识的能力开启了研究之门。同时,我们进行了实验证明了从基于 transformer 的语言模型中独立提取这些抽象概念表示的可能性。通过观察到的概念形成以及将概念表示从推理模块中隔离出来,可以实现有针对性的标记工程,为知识转移、可解释的人工智能和开发更模块化、概念基础的语言模型带来潜在应用。
Jun, 2024
本文通过将聚类方法应用于提前训练的语言模型的嵌入空间中,展示了在主题和情感分类数据集上,该方法在无需另作准备的情况下显著提高了零 - shot 文本分类的性能;并发现该方法不需要 Fine-tuning 就可以将文本分类;最后,文章还比较了不同 PLM 嵌入空间,并发现即使 PLM 未明确预训练为生成有意义的句子嵌入,它仍然能按主题将文本很好地聚类。
Oct, 2022
本文提出了一个新颖的框架 ConceptX,利用聚类发现预训练语言模型中编码的潜在概念,并通过与大量人类定义的概念进行对齐进行解释。它在七个变压器语言模型上的分析揭示了有趣的见解:i)学习表示中的潜在空间以不同的程度与不同的语言概念重叠,ii)模型中的较低层由词汇概念(例如,词缀)主导,而核心语言概念(例如,形态或句法关系)在中高层中更好地表示,iii)一些编码的概念具有多面性,无法用现有的人类定义概念充分说明。
Jun, 2022
本文研究人工智能模型(特别是大型语言模型)在知识探索和创意增强过程中的潜力。我们展示了一个名为 “潜在实验室” 的交互工具,用于发现麻省理工媒体实验室研究项目之间的联系,强调 “探索” 而非搜索。通过解决组织、搜索和综合内容的挑战,这项工作为协作式人工智能系统提供了深入见解。在一项用户研究中,根据该工具引入用户到一个陌生的知识库的能力来评估其成功,最终为人工智能知识探索系统的不断进步奠定了基础。
Nov, 2023
本研究介绍了一种基于概率模型和可变图自动编码器方法的 Deep-LPTM 模型聚类策略,使节点和边在两个嵌入空间中构建联合表示,以解决社交网络中的节点聚类和数据可视化等问题,并在 Enron 公司的电子邮件数据上进行了验证。
Apr, 2023
利用聚类方法探索多语言模型中的潜在概念,研究多语言嵌入之间的对齐和重叠程度,通过引入两个度量指标 CA 和 CO 进行定量分析,发现网络的深层对齐性较好,模型的微调增强了潜在空间中的对齐性,任务特定的校准有助于解释模型的零射击能力的出现。
May, 2024
本文提出一种新的名为 Hierarchical Latent Semantic Mapping (HLSM) 的主题生成方法,它可以自动从语料库中生成主题,并使用单词之间的关联和层次生成主题网络。实验表明,相比于现有的一些最先进的方法,HLSM 在几个文档集合上表现良好。
Nov, 2015