基于自适应亲和图网络的结构感知人体重塑
本研究提出了一种肖像重制方法,使用户能够轻松编辑其肖像以获得所需的姿势 / 视图、身体比例和服装样式,其中图形布局映射和语义感知外观转换被设计用于解决人体非刚性变形和语义感知编辑问题。
Jun, 2020
该研究论文侧重于点云序列的运动预测,特别在可变形的三维物体(如人体运动)的挑战性情况下进行研究。通过研究可变形形状和复杂运动在该类型中的存在的挑战,本文提出了一种改进的点云预测框架,采用了基于图的方法来学习和利用点云的空间结构以提取更具代表性的特征,并通过自适应模块按照点云运动调节学到的特征的组合,从而更有效地对可变形三维物体中的复杂运动进行建模。通过在多个数据集上的测试,该方法在模拟结果中表现优于现有基准方法,并具备了对动态特征学习的一般性可应用性,通过在 MSRAction3D 数据集上进行动作识别的测试,获得与现有最先进方法相媲美的结果。
Jul, 2023
本文提出一种名为自适应图模型网络(AGMN)的新架构,用于从单个 RGB 图像估计 2D 手部姿势,该架构包含两个深度卷积神经网络分支,用于计算一元和双元潜力函数,随后是图形模型推断模块,用于集成一元和双元潜力。与现有的将 DCNN 与图形模型结合的体系结构不同,我们的 AGMN 是新颖的,因为其图形模型的参数是基于并完全适应于个别输入图像的。实验证明,我们的方法在两个公共数据集上比 2D 手关键点估计中使用的最先进方法优越了不少。
Sep, 2019
本文介绍了利用 Interweaved Graph and Attention Network 技术来进行从单视图图像中进行 3D 人体姿势估计的方法,结果表明该方法在 Human3.6M 和 MPI-INF-3DHP 两个流行的基准数据集上均达到了最先进的表现。
Apr, 2023
我们提出了一种新的用于语义分割的算法 —— 自适应亲和场(Adaptive Affinity Fields, AAF),通过在训练过程中学习空间结构验证,能够捕捉和匹配相邻像素之间的语义关系,实现更高效的分割性能和跨领域的鲁棒性。
Mar, 2018
本研究提出一种基于条件扩散模型的新型解决方案 ——AGRoL,旨在根据稀疏的上肢追踪信号准确跟踪全身动作,通过在 AMASS 运动捕捉数据集上的训练和评估,证明我们的模型在预测和平滑全身运动方面优于现有的创新方法。
Apr, 2023
本文提出了一种名为 AGRA 的新颖的敌对图表示适应框架,将图表示传播与敌对学习结合起来,实现跨域整体 - 局部特征共适应,并探索它们的相互作用,使 AGRA 框架能够自适应地学习细粒度的不变特征,从而促进跨域表情识别。
Aug, 2020
我们开发了一种新颖的语义图注意力网络,它能够从自注意力捕获全局上下文的能力中受益,同时利用图卷积来处理骨架的局部连通性和结构约束。我们还设计了一个身体部分解码器,用于提取和改进与身体特定部分相关的信息。此外,我们的方法还包含距离信息,增强了模型理解和准确预测空间关系的能力。最后,我们引入了一种几何损失,对身体的结构骨架施加了关键约束,以确保模型的预测符合人体姿势的自然限制。实验证明了我们方法的有效性,表明系统中的每个元素对提高姿势估计结果至关重要。与最先进方法相比,我们的工作不仅达到了现有基准,而且超过了现有基准。
Jun, 2024
提出了一种新型的注意力门模型,可自动学习聚焦各种形状和大小的目标结构,在卷积神经网络模型中集成可以提高模型灵敏度和预测准确性并加速计算,应用于医学图像分类和分割任务中可提高模型预测性能并改进其启发机制。
Aug, 2018
本文提出了一种新的深度图形学习方法来进行精准的解剖面和医学(如手、骨盆)标志物检测,该方法结合了局部图像特征和全局形状特征,基于两个图卷积网络(GCNs)学习任务特定的结构。该方法在公共人脸图像数据集和 X 射线医学数据集上的实验结果表明,在鲁棒性和准确性方面的表现都优于先前的最新方法。学习到的图形拓扑的质量可视化证明了标志物背后物理上合理的连接。
Apr, 2020