通过多个词向量和多级比较实现语义文本相似度的句子建模
本文提出一种结合了 LSTM 和 CNN 模型的组合模型 (LSTM-CNN),利用词嵌入和位置嵌入来实现跨句子 n 元关系抽取。该模型利用了 LSTMs 和 CNNs 的特性,同时利用长距离的顺序信息和捕获大部分信息特征,是跨句子 n 元关系抽取的一种有效模型。该模型在标准数据集上进行评估,表现明显优于 CNN、LSTM 以及组合 CNN-LSTM 模型,并且优于当前跨句子 n 元关系抽取研究的最新成果。
Nov, 2018
研究使用 Paraphrase Database 监督学习通用的、同义句的句子嵌入,比较 6 种组成结构并在相似度数据集和三个 NLP 任务上进行评估,在领域内复杂的结构(如 LSTM)有更好的性能,但在领域外使用简单架构如词平均比 LSTM 表现更好,同时演示如何将预训练的句子嵌入与监督任务相结合。
Nov, 2015
本文介绍了一种结合卷积神经网络和递归神经网络用于度量句子语义相似性的系统,使用卷积网络考虑单词的局部上下文和 LSTM 考虑句子的全局上下文,能够保留句子相关信息,并在句子相似性计算方面取得了良好的结果,具有和最优秀系统相竞争的优势。
Oct, 2018
本文提出了一种基于多模态对比目标的句子嵌入学习方法,利用同时包含视觉和文本信息的数据提高了语义相似性任务的性能,并通过分析文本嵌入空间的性质解释了本方法提高性能的原因。
Apr, 2022
本文提出 C-LSTM 模型,结合了 CNN 和 RNN 的优点,用于句子表示和文本分类,实验结果表明 C-LSTM 比 CNN 和 LSTM 表现更好,可在这些任务中取得出色的性能。
Nov, 2015
提出了一种基于条件 MLM 的无监督对比学习框架 CMLM-CSE,通过增加辅助网络来集成句子嵌入执行 MLM 任务,使句子嵌入学习更多的屏蔽词信息,使用 Bertbase 和 Robertabase 作为预训练语言模型进行预训练,在文本相似性任务中分别超过了 SimCSE 0.55 和 0.3 个百分点。
Jun, 2023
本文提出了一种基于循环神经网络和长短时记忆单元的句子嵌入模型,该模型能够自动侦测句子中关键词和主题,从而进行网络文档检索等艰难的语言处理任务,并在性能上显著优于现有的先进方法。
Feb, 2015
本文提出了一种新颖的卷积神经网络架构 - 多组范数约束卷积神经网络(MGNC-CNN),它利用多组单词嵌入进行句子分类,并采用了一个组规范策略,该策略对与各自单词嵌入集生成的子组件相关的权重进行不同的惩罚。结果表明,MGNC-CNN 在分类任务上优于基线模型,且比其他相似的网络结构更简单且训练时间更少。
Mar, 2016
本文提出了一种名为 LSTM-E 的新型统一框架,它可以同时探索 LSTM 和视觉 - 语义嵌入的学习,以有效生成自然语言描述的视频内容,实验表明 LSTM-E 在生成自然语言句子方面的表现优于目前为止的最佳表现,对于预测 SVO 三元组也超过了几种最先进的技术。
May, 2015
分析语义变化的模式在长篇实际文本(如书籍或记录)中是有趣的,从文体、认知和语言的角度来看。这项研究也对应用领域,如文本分段、文档摘要和语义新颖性检测是有用的。本文通过时间序列的语义相似性以及多本文学作品的两两句子相似性矩阵比较了几种最近的句子嵌入方法。与以前使用目标任务和精心策划的数据集比较句子嵌入方法的研究不同,我们的方法提供了对方法在现实情境的评估。我们发现,大部分句子嵌入方法确实能够在给定文档中推断出高度相关的语义相似性模式,但也存在有趣的差异。
Aug, 2023