在复杂的果园环境中比较 YOLOv8 和 Mask RCNN 进行物体分割
我们提出了一个简单、灵活、通用的物体实例分割框架。此方法名为 Mask R-CNN,通过在现有的边界框识别分支上添加一个预测对象掩模的分支,同时高效地检测图像中的物体并生成每个实例的高质量分割掩模。该方法简单易用,可快速训练,并且在 COCO 挑战赛的三个跟踪任务中均取得最佳结果,在实例分割、边界框目标检测和人体关键点检测方面均表现优异,是一个强大的基线模型。
Mar, 2017
本研究评估了基于卷积神经网络的最基本的目标检测模型在速度 / 准确性权衡方面的性能,并选择了一个高效的模型 YOLOv5 进行实时医用口罩检测的优化,提出了一个基于转移学习的优化模型,在维持相同的平均精度的情况下,其速度超过了 PWMFD 数据集上最先进的模型 SE-YOLOv3 的两倍以上(每秒 69 帧)。
May, 2024
该研究通过比较分析 YOLOv5 和 YOLOv8 模型,挑战了后者在性能指标上的优越性的普遍假设。与最初的预期相反,YOLOv5 模型在目标检测任务中表现出了可比较的甚至在某些情况下优越的精度。我们的分析探讨了导致这些发现的底层因素,包括模型架构复杂性、训练数据集的差异和实际应用性等方面。通过严格测试和消融研究,我们呈现了对每个模型能力的细致理解,为选择和优化用于机器人应用的目标检测框架提供了洞察。该研究的意义扩展到更高效和情境适应性系统的设计,强调了评估模型性能的整体方法的必要性。
Jun, 2024
本文综述了 YOLO(You Only Look Once)目标检测算法的演进,着重介绍了 YOLOv5、YOLOv8 和 YOLOv10。分析了这些版本的架构改进、性能提升以及在边缘部署方面的适用性。研究结果表明在准确性、效率和实时性能方面不断取得了进展,并强调了它们在资源受限环境中的适用性。本综述提供了模型复杂性和检测准确性之间的权衡,为选择特定边缘计算应用的最合适的 YOLO 版本提供指导。
Jul, 2024
该研究提出了一种基于 YOLOv5 的自定义目标检测模型,用于在户外环境中检测草莓。修改了 YOLOv5s 的原始架构,通过在骨干网络中将 C3 模块替换为 C2f 模块,提供了更好的特征梯度流。通过将 YOLOv5s 的最终层中的空间金字塔池化快速与 Cross Stage Partial Net 相结合,提高了在草莓数据集上的泛化能力。验证了该方法在开放环境中检测草莓的优势,并与四个竞争检测模型进行了比较。结果表明,通过所提出的架构实现了最高 80.3% 的平均精度,而 YOLOv3-tiny、YOLOv5s、YOLOv5s-C2f 和 YOLOv8s 分别获得了 73.4%、77.8%、79.8% 和 79.3% 的平均精度。该模型具有快速的推理速度和适用于实时草莓检测和定位的充足网络参数。
Aug, 2023
本文探讨了使用三种最先进的目标检测神经网络在实时应用中用于口罩检测的能力,并在只有 1531 张图片的三个单独的类别的数据集上,通过使用 YOLOv4-tiny 模型获得了 85.31% 和 50.66 的平均精度和秒数,分别是其他最近研究的最佳模型。
Apr, 2023
本文提出了一种广义飞行物实时检测模型,可用于迁移学习和进一步研究,同时提出了一种可用于实现的改进模型。通过将第一通用模型训练在包含 40 种不同类别的飞行物数据集上,我们可以使模型提取抽象特征表示,然后在代表真实世界环境的数据集上执行传递学习,从而生成改进的模型,并且我们尝试使用当前最先进的单发探测器 YOLOv8 来解决一些出现的挑战。最后得到的模型达到了 0.685 的 mAP50-95 和 50fps 的平均推断速度。
May, 2023
通过消除非极大值抑制(NMS)的依赖性和综合优化 YOLOs 的各个组件,本研究提出了一种新一代的实时端到端目标检测模型 YOLOv10,其在性能和效率方面均取得了最新的成果。
May, 2024
提供高效且表现良好的目标检测器 YOLO-MS, 基于对不同核大小的卷积如何影响不同尺度物体的检测性能进行一系列研究来实现。新的策略能够大大增强实时目标检测器的多尺度特征表示。在 MS COCO 数据集上训练的 YOLO-MS, 不依赖于其他大规模数据集或预训练权重,在相同参数和 FLOPs 数量下,优于最近的实时目标检测器,包括 YOLO-v7 和 RTMDet。
Aug, 2023
该研究提出了一种新的框架,将两种不同的卷积神经网络结构相结合,以在模拟环境中同时完成作物检测和收获(机器人操控)任务。利用机器视觉实现作物自动识别,提高收获效率,但仍面临挑战。通过随机旋转、裁剪、亮度和对比度调整来生成增强图像以进行数据集生成。使用一次性算法框架进行作物定位,以及使用视觉几何组模型来确定机器人操控的抓取位置。
Jan, 2024