SpY: 基于上下文的航天器组件检测方法
使用加速的 3D 高斯模糊投射技术,在轨道上实现对不明卫星的几何映射和高准确度组件检测,从而实现自主导航和控制任务。
Jun, 2024
本文介绍了两种创新方法,显著提升了小型空中物体的检测和分割能力。首先,我们探索了 SAHI 框架在新引入的轻量级 YOLO v9 架构上的应用,利用可编程梯度信息(PGI)来减少在串行特征提取过程中常见的大量信息损失。同时,本文还采用了 Vision Mamba 模型,该模型结合位置嵌入以实现精确定位感知,结合了一种新颖的双向状态空间模型(SSM),用于有效的视觉背景建模。我们的实验结果显示,在不同的空中场景下,这些方法在检测准确度和处理效率上都取得了显著的改进,验证了这些方法在实时小型物体检测方面的适用性。本文还讨论了这些方法如何成为未来空中目标识别技术的基础模型。源代码将在此处提供。
May, 2024
通过利用信息论分析模型中隐藏层中的潜在表达来解释决策过程,研究论文使用了 PEEK 方法,使得我们能够了解 You Only Look Once v5(YOLOv5)目标检测模型在解决低地球轨道(LEO)中的非合作和未鉴别空间碎片的自主小型追逐卫星的几何确定和安全飞行轨迹规划方面的优势、局限性和偏差。
Nov, 2023
为了解决巨大的数据缺口和评估方法的挑战,本研究提出了一种模拟增强基准评估框架,以有效地训练和评估深度卷积神经网络探测器对居民空间物体的探测,其中模拟数据和图像分辨率的量是评估探测方法的高准确性和有效性的两个关键因素。
Apr, 2023
提出了一种新的卷积神经网络架构及训练过程,可对非合作空间器进行姿态估计,通过对合成图像的纹理随机化进行训练的 CNN 表现出更好的性能,在单张图片中采用回归 2D 关键点的方法解决了空间像素限制问题。
Sep, 2019
该研究提出了 Spacecraft Pose Network v2(SPNv2),是一个多尺度的卷积神经网络,通过在合成图像上进行数据增强而联合训练,可以实现对具有不同视觉特征的图像域进行非合作卫星的姿态估计。与此同时,该研究还引入了 ODR(Online Domain Refinement)技术,通过自监督熵最小化来在线优化 SPNv2 的统一参数,进一步提高了网络在没有姿态标签和计算开销最小的情况下在目标图像领域的性能。
Mar, 2022
本文介绍了一种用于非合作航天器姿态估计的 Spacecraft Pose Network (SPN) 方法, 基于单目视觉,无需手工特征提取和仅使用一张灰度图像即可确定相机与航天器之间的姿态。SPN 方法使用一个卷积神经网络,在检测航天器的 2D 边界框的基础上,用三个分支来求解姿态和位置估计,并生成了 Spacecraft PosE Estimation Dataset (SPEED) 数据集,仅用合成图像训练的 SPN 方法能够在实际相机图像上产生角度级姿态误差和 cm 级位置误差。
Jun, 2019
这篇论文提出了一种新的基于卷积神经网络的方法来预测空间中不配合物体的姿态,实验结果表明该方法在无需 3D 信息的情况下可以与当前姿态预测领域的最先进技术相竞争。
Apr, 2021
使用高斯过程 python 软件包 MuyGPyS 进行 Closely-Spaced Objects(CSO)分类,研究表明 MuyGPyS 在更具挑战性的情况下优于传统的机器学习方法。
Nov, 2023
本论文提出 SPARK 数据集作为一种新颖的空间物体多模态图像数据集,为太空态势感知中的物体识别做出了重要贡献,通过提供多种不同的轨道场景的感应条件,为空间环境下的目标识别、分类及检测算法的开发提供了具有挑战性的基准测试数据集。
Apr, 2021