一次性场景图生成
本研究提出了一种结合常识知识的场景图关系预测框架 COACHER,以填补现有场景图生成框架中对未知三元组建模能力的不足,特别是对零样本关系预测的能力,通过在外部常识知识图中建模实体周围的邻域和路径并将其与目前最先进的 SGG 框架结合,进行了广泛的定量评估和定性案例研究,证明了该方法的有效性。
Jul, 2021
本文提出了一种半监督方法,通过很少的带标签的样本分配概率关系标签到大量未标记的图像,生成足够的训练数据来训练任何现有的最先进的场景图模型,该方法在场景图预测方面优于所有基准方法,此外,我们定义了一种关系的复杂度指标,为条件提供指示符。
Apr, 2019
该论文提出了一种改进的方法来生成场景图,通过引入关系层次结构和常识知识。具体而言,我们提出了一个贝叶斯分类头,利用了信息丰富的层次结构,同时预测两个对象之间的超类或关系类型以及每个超类下的详细关系。我们设计了一个常识验证流程,使用大型语言模型对场景图预测系统的结果进行评估,并利用反馈改善模型性能。该系统在测试时不需要外部大型语言模型的辅助,更适用于实际应用。在 Visual Genome 和 OpenImage V6 数据集上的实验证明,利用层次关系可以大幅提高模型性能。该论文提出的贝叶斯头还可以作为一个可移植模块加入现有的场景图生成算法中,以改善它们的结果。此外,常识验证使得模型能够产生大量超出数据集注释的合理预测。
Nov, 2023
本文提出了一种基于嵌入模型的一次性关系学习框架,将已有的知识和一跳图结构相结合,来预测在只有一个训练样例的情况下的新事实,并通过实验证明,在新关系预测和嵌入模型训练上,该模型具有巨大的性能优势。
Aug, 2018
本文提出了一种零样本学习方法,利用生成对抗网络从文本描述中学习新关系的语义特征并在知识图谱中识别新关系的事实,使得知识图谱的扩展更加容易,实验结果表明这种方法可以被广泛应用于任何版本的知识图嵌入,并在 NELL 和 Wiki 数据集上实现了一致的性能提升。
Jan, 2020
本文提出了一种将场景图像与通识知识图谱相结合的新型神经网络方法 GB-Net,通过迭代循环优化信息传达的方式同时实现场景图与通识图的节点连接和边连接,取得了优越的分析表现并创造了新的最优水平。
Jan, 2020
本文为场景图生成的详细调查报告,主要讨论了场景图生成的各种技术、它们的有效性以及场景图在视觉关系理解和其他任务中的应用,同时分析了未来发展的方向。
May, 2020
使用结构化可视化表征 —— 场景图,通过可视上下文和语言因素进行关系编码,使用场景图卷积网络实现对对象属性和关系语义的联合推理来回答视觉问题,从而在 GQA 数据集上实现了 54.56%的最高准确率。
Dec, 2018
为解决场景图构建的大量人工成本,提出了一种基于图像语义关系生成的简单有效的图像到文本模型(ISRG),该模型通过将场景图任务分解为两个子任务,即图像分割任务和限制性自回归文本生成任务,极大地降低了场景图的构建成本。在 OpenPSG 数据集上,该模型获得了 31 分,相应地优于强基线 ResNet-50 和 CLIP 16 点和 5 点。
Oct, 2022
通过深度神经网络和知识嵌入式路由网络,结合统计相关性和语义关系之间的知识图谱,实现了场景图的生成和推理,实验证明该方法优于现有技术,解决了因为世界关系分布不均衡导致的场景图推导的难题。
Mar, 2019