利用扩散式生成方法和群舞动画控制策略生成高质量、可定制的群舞,以满足多样性和一致性需求,实验证明了方法的有效性。
Oct, 2023
将音乐与运动结合的 DiffDance 模型能够生成与输入音乐有效对齐的逼真舞蹈序列,结果与最先进的自回归方法相媲美。
Aug, 2023
自动驾驶任务中,在复杂交通环境中进行轨迹预测需要遵循现实世界的环境条件和行为多模态。我们介绍了一种名为 Controllable Diffusion Trajectory (CDT) 的新型轨迹生成器,它将地图信息和社交交互融入到基于 Transformer 的条件去噪扩散模型中,以指导未来轨迹的预测。通过引入行为标记,如直行、向右转或向左转,确保轨迹呈现多模态,并且使用预测的终点作为替代行为标记,以促进准确轨迹的预测。在 Argoverse 2 基准测试中的大量实验表明,CDT 在复杂城市环境中生成多样且符合场景要求的轨迹。
Feb, 2024
本文提出了一种基于时间卷积和 LSTM 的新型生成运动模型 (TC-LSTM),并引入了特定的控制信号即舞蹈旋律线,以提高控制可控性,成功地实现了多种舞蹈类型的艺术舞蹈动作合成,性能优于现有方法。
Jun, 2020
通过设计了一种长期舞蹈生成模型,LongDanceDiff,基于条件扩散模型,在解决时间一致性和空间约束方面具有挑战性,以提高生成舞蹈动作的多样性和质量。
利用引导扩散建模,实现自定义目标和环境因素下的真实行人轨迹和全身动画控制,并提出利用 RL 训练的价值函数指导扩散生成更适合特殊场景的轨迹。
Apr, 2023
在这篇论文中,我们介绍了一种名为合作伴舞生成的新型多舞者合成任务,旨在合成能够与用户一起跳舞的虚拟人舞者,其核心是在保持与领舞者的时间协调的同时确保生成的合作伴舞的可控性多样性。我们提出了一个称为 DanY 的三阶段框架,通过引入不同舞蹈姿势的动作采集、相似度协调和舞蹈动作转移来实现这一目标。通过对我们的 AIST-M 数据集的全面评估,证明了 DanY 可以以可控的多样性合成令人满意的合作伴舞结果。
我们提出了一个无需调整的框架来实现轨迹可控的视频生成,通过对噪声构建和注意力计算施加引导,扩展了传播模型的轨迹可控性。
Jun, 2024
该论文提出了 Diffusion-Conductor,它是一种基于 DDIM 的新方法,用于从给定的交响乐中生成乐队指挥的运动,并使用几种新的测量标准进行评估。
Jun, 2023
本文介绍了一个用于多人音乐驱动舞蹈生成的大规模数据集 AIOZ-GDANCE,并提出了一种新的方法来生成多人一致的舞蹈,同时还提出了新的评估度量标准来衡量生成的舞蹈质量。
Mar, 2023