基于深度学习的农业机器人田间导航中的农作物行跟随
使用基于视觉的移动机器人导航系统,在农田中主要限于行内导航。该论文提出了一种新颖的基于视觉的作物行切换算法,使用单个前置摄像头使移动机器人能够导航整个农田。所提出的行切换操作使用基于深度学习的 RGB 图像分割和深度数据来检测作物行的结束点和下一个作物行的重新进入点,该方法将用于多状态行切换流水线。该论文在一个真实的甜菜田中进行了测试,包含不连续的作物行、不同光照水平、阴影和不规则的边界表面。通过所提出的流水线,机器人能够成功地离开一个作物行并重新进入下一个作物行,线性步骤和旋转步骤的绝对中位误差平均为 19.25 厘米和 6.77°。
Sep, 2023
本文中介绍了一种基于视觉反馈的纯视觉方案,使用 RGB 图像进行局部特征匹配来退出作物行,并在作物行末端使用深度图像来估算导航距离,模拟在多样化的围栏区域中进行的算法测试表明其误差在 50cm 以内。
Jun, 2023
本文针对以减少除草剂使用量为目标的精准农业机器人的需要,提出了一种利用 RGB 数据进行基于 CNN 的作物分割和背景分类的方法,该方法利用植被指数实现实时分类,并且通过少量训练数据,可以在陌生的地块上进行有效的重新训练。在德国和瑞士的不同领域进行了实地测试,结果显示该系统的泛化能力很好,可在约 20Hz 的速度下进行在线操作,适合实际的农业生产。
Sep, 2017
本研究提出了一种基于学习的方法,针对行作物的路径生成问题,通过对区域地图的聚类方法,生成导航路径指向航路点,验证结果表明该方法可以高效地解决路径生成问题并超越之前的模型。
Jun, 2022
该研究提出了一种新的框架,将两种不同的卷积神经网络结构相结合,以在模拟环境中同时完成作物检测和收获(机器人操控)任务。利用机器视觉实现作物自动识别,提高收获效率,但仍面临挑战。通过随机旋转、裁剪、亮度和对比度调整来生成增强图像以进行数据集生成。使用一次性算法框架进行作物定位,以及使用视觉几何组模型来确定机器人操控的抓取位置。
Jan, 2024
通过使用机器操作结合时间跟踪的 Sentinel-2 图像生成高质量的数据集,并应用半监督分类、监督和自监督深度学习方法自动检测生产性农田,以解决传统手动识别的耗时和错误。结果表明在高置信正样本学习中的高准确性,并在没有完整标注数据集情况下使用对比学习等方法获得最佳性能。
May, 2023
提出一种基于视觉的农田自动导航框架 Agronav, 使用语义分割和语义线检测模型对输入图像处理,输出中心线;并提供了使用六种不同作物采集的像素级注释数据集 Agroscapes,结合神经网络技术使该框架适用于地面和空中的机器人平台。
Apr, 2023
通过边缘人工智能和深度强化学习相结合的方式,提出了一个利用噪声深度图像和位置不确定的机器人状态信息来实现自动导航的机器人系统,在模拟的葡萄园中进行了充分的实验验证。
Jun, 2022