多智能体行为数据集:老鼠二元社交互动
BEHAVE 数据集记录了 8 名主体在 5 个位置进行与 20 种常见对象的广泛互动,利用多视角 RGBD 帧和相应的 3D SMPL 和对象适配以及它们之间注释的接触,我们使用此数据学习模型,能够共同跟踪人类和物体的互动,同时可以在 3D 中对其交互进行建模,我们的关键洞察是预测与体统计模型中的人类和物品的对应关系,以获得互动期间的人 - 物接触。
Apr, 2022
研究者提供了工具来研究老鼠在家庭笼环境中的行为,包括使用自动分类老鼠行为的 ALM 以及使用置换矩阵来匹配每个笼子中老鼠身份的 Group Behaviour Model,为生物学家提供了捕捉个体行为和模拟笼友间互动关系和相互依赖性的可能性。
Jun, 2023
本研究提出了 RatPose 数据集,该数据集考虑了个体和环境的影响因素,并提出了一种名为双流场景运动解耦(DMSD)的方法来提高运动预测的鲁棒性,该方法在不同难度的任务中展示了显著的性能提升,同时验证了数据集的泛化能力。
May, 2023
本文提出一个交互式驾驶场景中带有语义地图的国际性对抗合作运动数据集(INTERACTION 数据集),包括多样的驾驶场景、不同文化的驾驶行为、交互式和复杂的行为等特点,可支持运动预测、行为建模等多项研究领域。
Sep, 2019
我们提出了一种在日常情景中准确捕捉和表达两个人之间交互行为的问题的解决方案,与先前的工作不同,我们同时模拟两个人的活动,并针对常常持续较长时间的以目标驱动、动态和连贯性交互为目标,我们捕捉了一个名为 InterAct 的新数据集,其中包含 241 个运动序列,两个人在整个序列中表演一个真实情景,我们的数据集中捕捉到了两个人的音频、肢体动作和面部表情。我们还演示了一种基于扩散模型的方法,仅通过音频直接估计两个人之间的互动动作。所有数据和代码将在论文接受后可供研究目的使用。
May, 2024
引入一个大型、多样化的浣熊行为识别视频数据集,包括群体社交互动、相机视野内个体的跟踪、不同光照条件等,共包括来自新西兰惠灵顿动物园的 20 个视频和 15 个未注释的视频,共计 848,400 个已注释帧。
Jun, 2023
本研究探讨利用行为生物统计学来区分人类和计算机(常称为机器人检测)的适用性。我们基于神经运动模型提出了 BeCAPTCHA-Mouse,这是一种新颖的基于老鼠动态的机器人检测器。我们提出了两种新的老鼠轨迹综合方法。在 BeCAPTCHA-Mouse 基准测试中,我们的实验表明,使用仅一个老鼠轨迹,BeCAPTCHA-Mouse 能够以 93%的平均准确率检测出具有高逼真度的机器人轨迹,而我们的方法与最先进的老鼠动态特征融合后,相对提高了超过 36%的机器人检测精度,证明了老鼠轨迹的机器人检测是一种快速,易于使用和可靠的补充传统 CAPTCHA 系统的工具。
May, 2020
本文介绍了一个新的数据集 MI-Motion,用来帮助研究多人运动预测,并提供基准测试来评估预测模型的性能,同时还介绍了一种新的基线方法 —— 图卷积神经网络和时间卷积神经网络。
Jun, 2023
该研究提出了一种隐私保护的开源数据集 MMASD,它包括来自 32 个 ASD 儿童游戏治疗干预的数据,被分割成超过 100 个小时的干预录音,并由四个隐私保护数据模式组成,可帮助研究人员了解儿童的认知状态,监测他们在治疗期间的进展,并相应地定制治疗计划。
Jun, 2023