使用有监督方向相似度网络评分词汇蕴涵
通过在现代监督式词义消歧模型中将语义特征引入分类器并考虑使用语义词典结构来增加训练数据,本文提出了一种有效的增强模型。通过研究不同类型的语义特征与本地上下文的交互作用,本文将所提出的模型扩展为一种新颖的多层架构,实验证明这种方法可以与现有的最新方法相比较。
Feb, 2024
研究一种使用 BERT 表示组成部分的句子的模型,结合指针网络和 ConceptNet 等知识,实现对文本语义相似性的可解释性分析。实验结果表明,该模型在 chunk alignment 任务上取得了显著的性能提升。
Jul, 2020
本研究将外部词汇知识与 BERT 模型的多任务学习相结合,提出了一种 “词汇知情” 的 BERT(LIBERT)模型,比起原始 BERT 在多项语言任务和词汇简化任务中均有显著提高。
Sep, 2019
本文提出了一个基于词汇语义分解和组合、双通道 CNN 模型的方法,不仅考虑输入两个句子的相似部分,同时也利用它们的不相似部分,从而可以更准确地比较句子相似度。实验表明,该模型在答案句子选择任务上取得了最好的表现,并在释义识别任务上取得可比较的结果。
Feb, 2016
本文提出了一个基于向量空间的模型,通过平均场近似,发展了逼近推理程序和蕴涵操作,用于重新解释现有的分布式语义模型(Word2Vec),以近似预测词汇蕴涵关系,通过无监督和半监督实验,在下义词检测方面取得了显著的改进。
Jul, 2016
该研究提出了一种基于向量空间的框架来对词汇包容性建模的分布语义模型,利用伪短语中邻近的两个词向量提出了一种隐向量,并探究了模拟词作为证据或词作为后验分布的优缺点。实验表明,所得到的词嵌入模型优于之前预测词之间下义词关系的最佳结果。
Oct, 2017
本文介绍了三种词汇蕴含的识别方法,并比较了它们的性能。与其他方法相比,新方法(相似性差异)在某些数据集上表现显著更好,说明词汇蕴含研究和语义关系分类研究之间建立联系是有益的。
Jan, 2014
本文提出使用基于深度结构语义模型(DSSM)的神经网络模型,并借助大量未经监督学习的文本来学习常识知识,以解决常识推理任务(Winograd Schema challenges)和代词消岐(Pronoun Disambiguation),并证明其在句子上下文信息和代词和名词之间的引用信息捕捉方面的有效性和显著性改进。
Apr, 2019