本文研究了利用学习表示的空间的内在几何结构来实现自动遵守复杂结构约束的本体 (分层和部分有序结构) 学习的最新工作,并探讨了对一种此类模型的两种扩展,旨在提高通识知识表示文本数据的性能。通过混合学习排序关系和非分层知识,以及利用训练数据的部分有序结构找到在配对训练过程中不好执行的嵌入之间的长距离 triplet 约束,我们发现这两种扩展都优于原始的 order-embedding 模型和其他强基线模型。
Aug, 2017
该论文提出了一套使用嵌入到分类标签中的类层次结构信息,通过改进算法进行图像分类和表示学习的方法,并将其在 ETHEC 数据集中进行了实证测试。
Apr, 2020
本文提出了一种引导式的注意力网络机制,将图像的空间特征、主题的高级信息以及生成的字幕的时间上下文嵌入到一个有序的嵌入空间中进行训练,采用成对的排序目标函数,该模型在 MSCOCO 数据集上表现出与众多最先进模型相媲美的竞争力。
Apr, 2022
本论文提出了一种基于概率密度的单词嵌入模型 —— 密度顺序嵌入模型。该模型通过实现简单而有效的损失函数和距离度量以及基于图的方案选择负样本,学习到分层的概率密度表示。实验结果表明,此方法在 WordNet 层级关系预测任务和 HyperLex 语义蕴涵数据集上表现出了最先进的性能,并保留了丰富而可解释的密度表示。
Apr, 2018
该研究提出了一种基于学习语义概念并按照正确语义顺序组织它们来提高图像表示的语义增强图像和句子匹配模型,利用多区域多标签 CNN 预测图像语义概念并使用上下文门控句子生成方案进行语义顺序学习,与传统 LSTM 结合执行图像和句子匹配和生成。这项工作在两个公共基准数据集上实现了最先进的结果。
Dec, 2017
提出了一种新的神经语言模型,它不仅包含单词顺序,还包括字符顺序,并利用 skip-gram 网络实现了高效的并行训练,从而在语义和句法类比任务中取得了 85.8%的高分。
Jun, 2015
该研究提出了一种基于向量空间的框架来对词汇包容性建模的分布语义模型,利用伪短语中邻近的两个词向量提出了一种隐向量,并探究了模拟词作为证据或词作为后验分布的优缺点。实验表明,所得到的词嵌入模型优于之前预测词之间下义词关系的最佳结果。
Oct, 2017
使用自动度量标准,评估了文本到图像模型在语言理解方面的能力,发现模型在理解词语间的超类关系以及部分词语的绘制上存在局限性。
Oct, 2023
通过深度度量学习进行后处理可以提高神经语言模型中语义相似度推断的效果,并将层次拟合用于建模 IS-A 层次中的语义相似性细微差别。
Oct, 2022
本文提出一种使用卷积神经网络和加权排名损失函数的方法,从单词图像中直接预测语义概念,实现文本识别和检索中的语义关联,实验证明该方法的正确性和高度准确性。
Sep, 2015