基于提示的零样本关系分类与语义知识增强
该研究提出了一种基于逻辑引导的语义表示学习模型,通过知识图谱嵌入和逻辑规则,在已知和未知关系之间建立联系,用于零样本关系分类。实验结果表明,该方法可以推广到未见关系类型,并取得了有希望的提升。
Oct, 2020
本文提出了一种基于 BERT 的多任务学习模型(ZS-BERT),通过零样本关系抽取解决新出现关系的抽取问题,实验结果表明该方法相比于现有的方法在 F1 分数上至少提高了 13.54%。
Apr, 2021
本文提出了一种零样本学习方法,利用生成对抗网络从文本描述中学习新关系的语义特征并在知识图谱中识别新关系的事实,使得知识图谱的扩展更加容易,实验结果表明这种方法可以被广泛应用于任何版本的知识图嵌入,并在 NELL 和 Wiki 数据集上实现了一致的性能提升。
Jan, 2020
本文提出了一个两阶段的框架,结合了数据扩充和特征扩充来解决零样本文本分类问题,同时将四种语义知识结构(词嵌入,类别描述,类层次结构和通用知识图谱)纳入到该框架中,实验结果表明,该框架的单独和联合两个阶段相比基线和最近的方法均获得了最佳的整体准确率。
Mar, 2019
本论文针对零样本学习任务中多模态的问题,提出了一种基于知识图谱和密集注意力模块的多模态零样本学习框架,实现了对实体更具差异化的语义迁移过程和精细化的知识获取。
Jun, 2023
通过本体论知识表示和语义嵌入,以更丰富和竞争的先验知识建模 ZSL 的类间关系,并使用生成对抗网络(GANs)开发了一种生成 ZSL 框架,以解决已知类和未知类之间的数据不平衡问题。
Feb, 2021
本文介绍了 Zero-RTE 任务及其解决方案 —— 使用结构化的提示模板来生成合成关系样本,并使用三元组搜寻解码方法来克服在句子中提取多个关系三元组的限制。实验表明,RelationPrompt 对于 Zero-RTE 任务和零样本关系分类非常有效。
Mar, 2022
本篇研究提出了一种基于跨模态 Transformer 的框架,用于零样本动作识别,其将视频数据和文本标签进行联合编码,并通过一个新的管道来构建视觉和语义表示之间的共享知识空间,其中包括了一个语义传递的策略,通过将已有和未见的课程联合在一起,提高了在 UCF101、HMDB51 和 ActivityNet 基准数据集中的顶级准确度。
May, 2022
本研究针对零样本学习领域,将语义信息与属性相关联,通过使用一组关系来利用属性所张成的空间结构,提出了一种方法,在嵌入空间中保留这些关系的目标函数,从而导致嵌入空间的语义性的提高。通过在五个基准数据集上进行广泛的实验评估,我们证明了欲使嵌入空间语义化对零样本学习有益。该方法在标准零样本设置以及更加现实的广义零样本设置上均优于现有技术,同时演示了该方法如何对于对于某个没有属性信息的图像做出近似的语义推断是有用的。
Mar, 2018
通过进一步采用指令跟随技术来提取具有综合转移知识的指导性视觉提示,以解决固定学习提示在已知领域上过分强调训练期间观察到的主要视觉特征的问题,并通过引导学习的指令提示来实现对视觉表示的反向校正,从而弥补缺失的视觉细节并消除跨模态差异,为未知领域的泛化带来显著性能提升。
Jun, 2024