轻量特征学习和多尺度注意力的野外深度目标检测
YPose 是一个用于从 RGB 图像中识别瑜伽姿势的卷积神经网络模型,采用基于 EfficientNets 骨干的 CNN 架构进行特征提取,并添加了密集连接网络架构中自适应的密集细化块用于学习更多样化的特征,然后应用全局平均池化和全连接层用于瑜伽姿态的多级分类,其在 Yoga-82 数据集上的表现优于之前的最新技术,准确率达到了 93.28%。
Jun, 2023
我们在本文中提出了 YOLO-TLA,这是一种基于 YOLOv5 的先进物体检测模型,通过在颈部网络金字塔架构中引入一个额外的检测层来检测小对象,从而提供一个更大尺度的特征图以辨别小对象的更细致特征,并将 C3CrossCovn 模块集成到骨干网络中,有效地减少计算需求和参数数量,使模型更加紧凑
Feb, 2024
基于 FLOP 的高效目标检测计算的神经网络架构设计选择和优化方法,LeYOLO 提供了在不同资源限制下性能优越的计算负载和准确率比例。
Jun, 2024
在本研究中,我们提出了一种先进的 Gatherand-Distribute 机制(GD 机制),该机制借助卷积和自注意操作实现。我们设计的新模型 Gold-YOLO 在跨所有模型尺度上提升了多尺度特征融合能力并在延迟和准确性之间实现了理想的平衡。此外,我们首次在 YOLO 系列中实现了 MAE 风格的预训练,使得 YOLO 系列模型能够从无监督预训练中受益。Gold-YOLO-N 在 COCO val2017 数据集上取得了出色的 39.9% AP 和在 T4 GPU 上的 1030 FPS,超过了以前的 SOTA 模型 YOLOv6-3.0-N 的相似 FPS +2.4%。
Sep, 2023
本文综述了 YOLO(You Only Look Once)目标检测算法的演进,着重介绍了 YOLOv5、YOLOv8 和 YOLOv10。分析了这些版本的架构改进、性能提升以及在边缘部署方面的适用性。研究结果表明在准确性、效率和实时性能方面不断取得了进展,并强调了它们在资源受限环境中的适用性。本综述提供了模型复杂性和检测准确性之间的权衡,为选择特定边缘计算应用的最合适的 YOLO 版本提供指导。
Jul, 2024
通过使用新颖的自注意力模块,将全局特征反映到局部特征和局部接受域,以及优化解耦头和 AB-OTA,我们提出的模型在大中小型模型上能够实现 49.0%(71FPS,14ms),46.1%(85FPS,11.7ms)和 39.1%(107FPS,9.3ms)的平均精度,超过了 YOLOv5 0.8%-3.1% 的平均精度。
Jun, 2022
本研究通过使用高级技术(如 Group Convolution、ShuffleNetV2 和 Vision Transformer),优化了 YOLOv7 算法,减小了模型的参数数量和内存使用,并简化了网络架构,从而在资源受限的设备上加强了实时物体检测的能力。实验结果表明,经过改进的 YOLO 模型表现出卓越的性能,在保持卓越的检测准确度的同时,显著提高了处理速度。
Mar, 2024
通过结合超分辨率和经过修改的轻量级 YOLOv5 架构,我们提出了一种创新的方法,用于在航空影像中准确检测小型密集目标,并通过一系列数据集的评估,证明该模型在高密度遮挡条件下能够实现更好的检测结果,从而为航空影像中的目标检测领域带来显著进展。
Jan, 2024
该论文介绍了一种新颖的 BGFG-YOLO 架构,通过将 Bi-level Routing Attention(BRA)、Generalized feature pyramid networks(GFPN)、Forth detecting head 和 Generalized-IoU(GIoU)bounding box regression loss 结合到 YOLOv8 中,实现了对自动脑肿瘤检测的高准确性。实验结果显示,与 YOLOv8x 相比,BGFG-YOLO 在脑肿瘤检测数据集 Br35H 上的 mAP50 绝对增加了 3.4%,达到了 state-of-the-art 水平。
Sep, 2023
本文介绍了一种基于 YOLOV2 算法的实时目标检测模型 YOLO-LITE,该模型可以在无 GPU 设备上运行,经过在 Pascal VOC 和 COCO 数据集的训练,在 7 层、482 亿次浮点运算下达到了大约 21 FPS 的检测速度,比最快的现有模型 SSD MobilenetV1 快 3.8 倍,从而提高了实时目标检测的可访问性。
Nov, 2018