增强词表示以解决回指关系
本文提出了一种集成方法,通过将 GloVe 和 word2vec 的嵌入方式与语义网络 ConceptNet 和 PPDB 的结构化知识相结合,将它们的信息融合成一个具有大型多语言词汇的共同表示,并达到了许多词语相似性评估的最先进性能
Apr, 2016
本文提出一种方法学习语言的词汇,并使用图嵌入技术和跨语言向量空间映射方法结合本体源和语料库来提高现有词向量的覆盖范围以及加强其词汇知识。所提出的方法在 Rare Word Similarity dataset 上表现出 10% 的性能提升。
Jul, 2017
本文提出了一种新的学习单词嵌入的方法,可以利用相关词汇表的信息来改进单词表示,并使用神经单词嵌入在 CoNLL 和 Ontonotes NER 中实现了最先进的结果。在公共数据上取得了 90.9 的 F1 评分,优于以前的任何系统,并与使用私有工业查询日志数据的系统匹配。
Apr, 2014
通过提取语料库中词汇的共现模式来实现无监督学习,学习不仅代表个体单词的表示,还明确捕捉代表单词间语义关联的词向量表示,并通过联合权重和二元分类器来描述单词间的语义关系,取得了普遍类比检测三个基准数据集中的显著性优势。
May, 2015
本文针对词嵌入模型在信息检索任务中存在的问题及其局限性,提出了一种基于 word2vec Skip-Gram 模型的神经网络模型,通过显式向量表示的方式,增加了模型的可解释性和准确性,实现了查询词汇的局部信息融合,提高了指定任务状态下的表现表现。
Jul, 2017
该研究将连贯指代消解视为基于上下文的问答,并提出了一个名为 BARQA 的框架来处理此任务,利用迁移学习的能力使模型在 ISNotes 和 BASHI 两个连贯语料库上的表现达到了最新的最佳水平。
Apr, 2020
本文提出了一种新颖而简单的技术,将来自不同结构的两个大型知识库中的概念知识(Wikipedia 和 Probase)整合起来,学习概念表示,并在两个任务上评估了概念嵌入模型:类比推理和概念分类,并展示了无监督环境中用于神经语义分析的参数识别的案例研究,相对于 gazetteer 和正则表达式等繁琐易出错的方法,我们的无监督方法具有更好的泛化能力。
Jan, 2018