使用非重叠轨迹来协助协调舞蹈运动,并通过距离保持一定阈值和相对前向运动的损失来解决多舞者碰撞和单人滑步问题,实现了最先进的结果。
Mar, 2024
本文介绍了一个用于多人音乐驱动舞蹈生成的大规模数据集 AIOZ-GDANCE,并提出了一种新的方法来生成多人一致的舞蹈,同时还提出了新的评估度量标准来衡量生成的舞蹈质量。
Mar, 2023
将音乐与运动结合的 DiffDance 模型能够生成与输入音乐有效对齐的逼真舞蹈序列,结果与最先进的自回归方法相媲美。
Aug, 2023
通过设计了一种长期舞蹈生成模型,LongDanceDiff,基于条件扩散模型,在解决时间一致性和空间约束方面具有挑战性,以提高生成舞蹈动作的多样性和质量。
在这篇论文中,我们介绍了一种名为合作伴舞生成的新型多舞者合成任务,旨在合成能够与用户一起跳舞的虚拟人舞者,其核心是在保持与领舞者的时间协调的同时确保生成的合作伴舞的可控性多样性。我们提出了一个称为 DanY 的三阶段框架,通过引入不同舞蹈姿势的动作采集、相似度协调和舞蹈动作转移来实现这一目标。通过对我们的 AIST-M 数据集的全面评估,证明了 DanY 可以以可控的多样性合成令人满意的合作伴舞结果。
该论文提出了 Diffusion-Conductor,它是一种基于 DDIM 的新方法,用于从给定的交响乐中生成乐队指挥的运动,并使用几种新的测量标准进行评估。
Jun, 2023
本文提出了一种基于时间卷积和 LSTM 的新型生成运动模型 (TC-LSTM),并引入了特定的控制信号即舞蹈旋律线,以提高控制可控性,成功地实现了多种舞蹈类型的艺术舞蹈动作合成,性能优于现有方法。
Jun, 2020
我们提出了一个统一的框架,能够生成高质量的舞蹈动作并支持多模态控制,包括流派控制,语义控制和空间控制,实验证明所提出的舞蹈生成框架在动作质量和可控性方面优于现有的方法。
Jan, 2024
通过 Music-Conditioned Style-Aware Diffusion (MCSAD) 和 spatial-temporal masking strategy,该方法能够生成与音乐内容和风格一致的现实舞蹈序列,对于长期生成、舞蹈中间生成和舞蹈修复等各种任务都具有很大的潜力。
Jun, 2024
该论文提出了一种基于自回归生成模型的新方法 DanceNet,以音乐的风格、节奏和旋律为控制信号生成具有高度真实感和多样性的 3D 舞蹈动作,并通过专业舞者捕捉了多组同步的音乐舞蹈配对数据集以提高模型性能,实验结果表明所提出的方法达到了最先进的效果。
Feb, 2020