Annolid:注释、分割和追踪您所需的任何对象
利用深度学习的最新进展,本文展示了如何利用 YOLOv8 神经网络来准确地分割航空 LiDAR 图像中的考古结构,通过对原始 LiDAR 数据的新型预处理和数据增强方法来训练 YOLOv8 网络,提高了平台和环状结构的分割的准确度、精度和召回率,优于现有方法,该方法自动化了耗时的 LiDAR 图像标注,显著加速了对历史景观的准确分析。
Mar, 2024
本文提出了基于新型弱标注的视频显著目标检测模型,并使用外观运动融合模块和双向 ConvLSTM 框架来实现有效的多模态学习和长期时序建模,还设计了一种前景背景相似度损失和一种弱标注增强策略,以提高模型性能和伪标签生成技术。在六个基准视频显著性检测数据集上的实验结果证明了我们方案的有效性。
Apr, 2021
我们提出了一种使用边界框注释的主动学习框架,用于细胞分割,大大降低了数据注释成本。通过将 YOLOv8 检测器与 Segment Anything Model (SAM) 相结合,我们生成了一个箱子监督学习方法(称为 YOLO-SAM),有效降低了数据注释的复杂性。此外,它还集成到一个主动学习框架中,使用 MC DropBlock 方法以较少的框注释样本来训练分割模型。广泛的实验证明,与遮罩监督深度学习方法相比,我们的模型节省了超过 90%的数据注释时间。
May, 2024
本文提出了一种基于 SOLO 的自监督实例分割框架 FreeSOLO,通过实现一个新颖的定位感知预训练框架成功地实现了无监督的类不可知实例分割,其与一些使用手动标注的分割提案方法相比表现更优,而且还通过 + 9.8% 的 AP 在弱监督条件下对预训练方法进行了进一步改进。
Feb, 2022
提出 UOLO 框架,用于医学图像中感兴趣结构的同时检测和分割。UOLO 由对象分割模块组成,其中间抽象表示被处理并用作对象检测的输入。该系统同步优化以检测对象类和分割可选结构类。通过新的损失函数进行训练,考虑到每个训练图像是否可以获取参考分割。在公共数据集上,验证 UOLO 在视网膜图像中同时进行视盘(OD)检测、黄斑检测和 OD 分割,实现了最先进的性能。
Oct, 2018
本文提出一种基于盒子注释的弱监督深度学习方法,通过结合图形搜索和深度学习的方法从盒注释中生成精细的对象掩模,并且使用生成的掩模来训练准确的深度学习分割网络,实验结果表明,该方法优于目前已知的最佳弱监督深度学习方法,并且能够以远少于制备全监督深度学习方法相同的注释成本来实现几乎相同的准确性,而且能够有效地应用于各种应用领域。
Jun, 2018
本文提出了一个简单而有效的基于检测的网络,用于激光雷达全景分割和追踪任务,通过使用点级别注释训练目标实例检测分支,以及使用轨迹级别监督回归模态中心和物体范围来获取细粒度实例段,该方法在多个 3D/4D LPS 基准测试中表现出色,超过最新的基于查询的模型,建立了新的开源模型的最新技术水平。
Oct, 2023
通过单点注释学习跟踪表示,提出了一种软对比学习框架(SoCL),该框架将目标拥有性先验融合到端到端的对比学习中,并将所学表示应用于视觉跟踪,展示出优越的性能和鲁棒性。
Apr, 2024
介绍一种新的角度来处理实例分割任务:引入 “实例类别” 的概念,其根据实例的位置给每个像素分配类别,从而提出了 Segmenting Objects by Locations(SOLO)。我们的方法消除了后处理分组或边界框检测的需求,并以在速度和准确性方面都取得了最新成果,同时比现有方法相对简单。
Jun, 2021
本研究利用基于模拟比特的扩散模型来解决全景分割任务中高维的一对多映射,通过添加过去的预测作为信息输入,能够对视频中的对象实例进行跟踪并自动学习,在各项实验中与现有的专业方法相比表现出了竞争性。
Oct, 2022