通过使用多模态数据、分层半监督学习框架、基于 Transformer 的网络等方法,该研究提出了一种用于手术姿势分割和手势识别的技术,并在公开可用的 JIGSAWS 数据库上进行了评估,得到了较高的分割和识别准确度。
Jul, 2023
通过深度学习框架从机器人运动数据映射到单个技能级别,提出了一种无需特征工程或精心调整手势细分,即可成功解码技能信息的模型,并能在 1-3 秒窗口内可靠地解释技能,突出了深度架构在现代外科培训中高效在线技能评估的潜力。
Jun, 2018
使用循环神经网络识别机器人运动学中的外科手术活动,成果表明使用 RNN 可以有效识别手势和操作,并提高了准确性和编辑距离。
Jun, 2016
采用三维卷积神经网络从连续视频帧中学习时空特征,实现视觉手术姿势识别,可用于手术技能评估、手术操作中的监控和手术任务的半自动化等多种应用。在针对 JIGSAWS 数据库中的机器人辅助缝合视频的测试中,通过对空间时间特征建模,该方法实现了高于 84% 的手术姿态识别准确性,是视频手术姿态识别的重要进展。
Jul, 2019
本篇论文提出了一种新的方法,基于改进的 Transformer 模型,利用手术机器人端效应器当前的运动数据,可以实现手势识别、手势预测、轨迹预测等三个任务,能够实现近乎实时的手术活动识别和预测,实验结果表明该方案可以比同类方法表现更好。
Dec, 2022
本研究利用深度学习探索了三种不同的方法来识别手势:基于监督学习的方法、自监督学习方法和基于可视化的技术应用于三维运动骨架数据。实验结果表明,监督学习方法能够准确识别手势,而自监督学习方法在模拟环境中提高了识别准确性,Grad-CAM 可视化结果显示了模型对相关骨骼关节的关注。
Jun, 2024
经过探索性数据分析,我们发现手术视频具有相对简单的语义结构,我们提出了一种基于隐马尔可夫模型(HMM)的深度学习方法,用于工具存在性检测,结果表明,与复杂模型结构的流行深度学习方法相比,我们的方法在性能、训练和运行成本以及数据利用方面都更优,智能地将深度学习和统计学相结合可能会导致更强大的算法,同时享有竞争性能、透明解释和便捷的模型训练方式。
Apr, 2024
本文介绍了一个用于大量静态手势和动态手势分类识别的人机交互框架,利用佩戴式传感器进行数据收集,并采用降维和神经网络等处理技术,最终实现了在实时环境下的高准确率手势识别。
Apr, 2023
本文提出了一种基于深度强化学习的半自主控制方法,可帮助外科机器人在手术过程中完成一些简单但重复的操作,用户实验表明此框架可将手术时间缩短 19.1%,行程长度缩短 58.7%。
Apr, 2022
本研究使用深度学习方法,基于视频数据进行自动技能评估,结果表明使用 3D ConvNet 直接从数据中学习有意义的模式可以高效评估外科技术技能,使得人工特征工程不再是必须的。
Mar, 2019