HabiCrowd: 一个专为关注群众的视觉导航而设计的高性能模拟器
模拟是一个强大的工具,可以轻松生成带有注释的数据,特别适用于那些需要大型训练数据集的学习模型的领域。我们介绍了一个名为 UniCrowd 的人群模拟器及其关联的验证流程,展示了该模拟器如何生成适用于计算机视觉任务的带注释数据,并包括人群计数、人体姿势估计、轨迹分析和预测以及异常检测等相关应用。
Dec, 2023
本文提出了一种模型,通过模拟人 - 人和人 - 机之间的交互,在考虑空间定位的前提下预测机器人在人群中的未来轨迹,对比实验表明该模型对于长时间段内的轨迹预测表现优于现有技术。
May, 2017
本文研究了通过真实或人工合成手段生成的人群数据集,利用模拟工具可以显著减少生成特定场景的人群数据集所需的时间,并辅助构建功能机器学习模型,开发了一个名为 CrowdSim2 的人群模拟器,并在应用于人员追踪算法中证明了其可用性。
Apr, 2023
本文提出了一种基于视觉信息的众包模拟模型(VID),该模型通过使用先前的社会视觉信息和个体的运动数据来预测行人下一时间步的速度。通过测试该模型在具有不同几何结构的三个公共行人运动数据集上,结果显示该模型在适应不同几何情景方面的能力得到了提升,证明了所提出方法在增强数据驱动人群模型的适应性方面的有效性。
Nov, 2023
通过使用低保真度的模拟器,我们研究了使用强化学习政策进行约束群体导航的可行性。我们引入了一种动态环境的表示,将人类和障碍物分开表示。我们的方法在模拟和实际环境中显著改善了导航性能。
May, 2024
Vision-and-Language Navigation involves developing embodied agents that navigate based on human instructions. This paper introduces Human-Aware Vision-and-Language Navigation by incorporating dynamic human activities and relaxing key assumptions, utilizing the HA3D simulator, HA-R2R dataset, Expert-Supervised Cross-Modal, and Non-Expert-Supervised Decision Transformer agents for effective navigation in dynamic human environments.
Jun, 2024
本文提出了一种新的生成标记群体视频(LCrowdV)的程序框架,该框架包括两个组成部分:用于生成群体动作和行为的程序性仿真框架以及用于生成不同视频或图像的程序性渲染框架。该方法可以自动生成每个视频或图像的标签,包括环境,行人数目,密度,行为,流,光照条件,视点和噪声等。通过将合成生成的行为与真实背景视频相结合,可以进一步提高逼真度。实验证明了 LCrowdV 在人行检测和群体行为分类算法的准确性方面的优势。
Jun, 2016
本研究提出了一种新方法,通过从社交动作潜空间中学习生成机器人控制来实现社交机器人导航。该方法在社交导航度量指标(如成功率、导航时间和轨迹长度)方面取得了显著改进,同时产生更平滑(较小加速度和角度偏差)和更具预测性的轨迹。通过与基准模型在不同场景下的比较,验证了该方法的优越性。此外,引入了人类对机器人的认知概念到社交机器人导航框架中,表明融入人类的意识可以导致更短、更平滑的轨迹,因为人类能够与机器人积极互动。
Oct, 2023
该研究论文介绍了 CrowdSim2—— 一个新的人和车辆检测适用的合成图像集合,旨在用于基于人工智能的监督模型开发。研究发现他们使用的这个新数据集对于在受控环境中测量检测器性能是一个有价值的工具。
Apr, 2023
该研究介绍了一种新的人类感知式导航方法,其中机器人通过学习模仿人类在人群中安全导航。通过使用 DeepMoTIon 模型,该系统通过 LiDAR 扫描处理并预测人类行为,实现导航目标的达成,同时保证了系统遵循社交规范,且无一异常情况。
Mar, 2018