CD-COCO:一种用于场景上下文感知计算机视觉的多用途复杂畸变 COCO 数据库
通过优化图像增强、检测框集成、去噪集成、超分辨率模型和迁移学习等方法,将 YOLOv7 目标检测器应用于 CDCOCO 数据集,实现了在不同环境中对失真图像的准确检测和修复。该去噪检测模型在各种真实场景中具有广泛的应用价值。
Sep, 2023
我们介绍了 3D-COCO,这是原始的 MS-COCO 数据集的扩展,提供了 3D 模型和 2D-3D 对齐注释。3D-COCO 旨在实现计算机视觉任务,如可配置的 3D 重建或图像检测,通过使用文本、2D 图像和 3D CAD 模型查询。通过使用 IoU 方法,我们将每个 MS-COCO 注释与最佳的 3D 模型进行匹配,提供 2D-3D 对齐。3D-COCO 的开源性是对 3D 相关主题新研究的开拓,该数据集及其源代码可在给定的链接上找到。
Apr, 2024
本研究旨在推进目标识别的最新进展,提出了一种数据集的形式,通过将目标识别的问题置于场景理解的更广泛背景下,聚集了包含常见物品的复杂日常场景的图像,并利用每个实例分割对物品进行标记以协助精确定位,该数据集包含 91 种 4 岁儿童容易识别的对象类型,有 328k 张图像和 250 万个标记实例。本文最终提供了一种基于可变形零件模型的边界框和分割检测结果的基线性能分析。
May, 2014
通过引入基于 COCO 的 COCO-O 测试数据集,研究了 100 多种现代目标检测器的鲁棒性效果,并发现了各种架构设计、数据增强和预训练技术对鲁棒性的影响。
Jul, 2023
本文提出一种基于离散余弦变换的 DCT-Net 模块,可用于改善卷积神经网络 (CNN) 在面对包括高噪音、模糊等多种苟且不净的图像质量下的分类表现。通过丢弃高频信息,DCT-Net 能够在训练和测试过程中自适应地适应各种扭曲情况,仅需盲目一次训练即可用于未知的图像失真情况,结果表明 DCT-Net 在 CIFAR-10/100 和 ImageNet 测试数据集上具有更好的分类准确性。
Nov, 2018
本文引入 OOD-CV 数据集,并发现某些干扰因素有更强烈的负面影响;当前的提高鲁棒性的方法只有微弱的效果,甚至可能削弱鲁棒性;我们的数据集提供了一个丰富的测试床,以研究鲁棒性,并有助于推进这一领域的研究。
Nov, 2021
全文提供了对一项名为协作伪装目标检测(CoCOD)的新任务的全面研究,其目的是同时从一组相关图像中检测具有相同属性的伪装目标。为此,我们细致地构建了首个大规模数据集 CoCOD8K,该数据集包含 8528 张高质量且精选图像,带有目标遮罩注释,覆盖 5 个超类别和 70 个子类别。该数据集涵盖了各种自然和人工伪装场景,具有多样的目标外观和背景,因此对于 CoCOD 来说是一个非常具有挑战性的数据集。此外,我们提出了 CoCOD 的首个基准模型,名为双向分支网络(BBNet),该模型分别在单个图像内和图像组内探索和整合共伪装线索,以实现对给定图像中伪装目标的准确检测。这是通过一种图像间协作特征探索(CFE)模块、一种图像内目标特征搜索(OFS)模块和一种局部 - 全局细化(LGR)模块实现的。我们在提议的 CoCOD8K 数据集上对 18 种最先进的模型进行了性能评估,其中包括 12 种 COD 算法和 6 种 CoSOD 算法,采用了 5 种广泛使用的评估指标。广泛的实验表明了所提出方法的有效性以及与其他竞争方法相比显著更优越的性能。我们希望我们提出的数据集和模型能够促进 COD 社区的发展。该数据集、模型和结果将可在此网址获取: https://this-URL
Oct, 2023
DetCo 是一种创新的对比学习方法,通过充分探索全局图像和局部图像补丁之间的对比,学习有助于目标检测的判别性表示,实验表明其不仅在目标检测方面优于现有方法,在分割,姿态估计和三维形状预测方面也显著优于监督方法。
Feb, 2021
该研究提供了一种名为 CO3D 的大规模数据集,其中包含了 50 种 MS-COCO 类别的近 19,000 个视频,共计 1.5 百万帧真实的多视角图像,带有相机姿态和地面真实 3D 点云的注释,并利用该数据集进行了新视角综合和类别为中心的 3D 重建方法的大规模 “野外” 评估,并提出了一种基于 Transformer 的新型神经渲染方法 NerFormer,可根据物体的少数视角重建整个物体。
Sep, 2021
我们引入了 OOD-CV-v2 数据集,其中包括了 10 个物体类别的姿态、形状、纹理、上下文和天气条件之外的分布数据,以提高图像分类、物体检测和 3D 姿态估计模型的鲁棒性性能。经过大量的实验,我们发现当前的提高鲁棒性方法只有微小的作用,并且可能会降低鲁棒性;同时,在卷积和 transformer 架构之间没有明显的差异。
Apr, 2023