不要以物品所处环境论其价值:学习克服语境偏见
该研究探讨了利用空间上下文作为丰富的视觉表征的监督信号的方法。通过从每个图像中提取随机配对的路径来训练卷积神经网络,用于预测第二个路径相对于第一个路径的位置,从而实现对目标的识别,并证明该方法在性能上优于其他算法。
May, 2015
研究对象检测中上下文限制效果有限的原因,提出了一种基于区域的上下文重新评分方法,该方法采用动态上下文选择来消除噪声并强调信息上下文,实验表明该方法在性能评估方面显著优于外观检测器和传统上下文模型。
Sep, 2016
本研究基于特殊遮盖的MS COCO数据集,对目前最先进的Faster R-CNN和YOLO目标检测器的准确性进行评估和比较,以衡量它们的预测有多少依赖于编码在对象类别级别上的上下文信息。研究结果表明,当前检测器通常不会在类别级别上建立强的依赖关系,但是当它们这样做时,它们的方式往往相似,表明对象类别的上下文依赖性是一个独立的属性,这具有传递知识的相关性。
Sep, 2018
该论文提出了一种从自动转录的指导视频中学习上下文化对象嵌入(COBE)的新框架,利用语言的语义和组成结构,通过训练视觉检测器预测对象的上下文化词嵌入来实现对象状态和上下文的识别,实验表明在少样本和零样本学习方面非常有效。
Jul, 2020
本文提出了一种框架,通过融合多个数据集的标签空间进行单一目标检测,解决了不同注释数据集之间的矛盾问题,采用伪标签方法处理局部而正确的注释,提出了损失函数将伪标签与噪声控制在一个相对稳定的范围内,并通过实验表明了方法的有效性。
Aug, 2020
该研究提出了一种基于Robust Concept Activation Vectors的诠释方法,用于评估图像分类模型的可靠性和模型是否存在系统偏差。该方法关注语义概念,如纹理、颜色和性别等,通过梯度上升来评估模型对给定概念的敏感性,并构建了两个基准数据集来评估本方法的实际可用性和科学用途。
Apr, 2021
本文提出了一种基于图的上下文推理网络(GCRN)检测图像中的不符上下文(OOC)物体的方法, GCRN可以明确捕捉到上下文线索,以改进检测位于上下文中的物体并识别违反上下文关系的物体。作者们创建了一个大规模数据集来评估他们的方法,并在最近的 OCD 基准测试上进行了评估。研究结果表明,GCRN 在检测 OOC 物体和正确检测位于上下文中的物体方面优于竞争基线。
Feb, 2022
本研究探索语言上下文对目标检测的影响,并提出了一种增强上下文作用的方法,特别是属性等语境,以提高区域-词对齐性能。该方法在区域-词预训练方面超越了最先进技术,并通过文本-区域检索和短语命名分析展示了属性敏感模型的细粒度实用性。
Mar, 2023