本研究针对动画视频插帧问题,提出 AnimeInterp 框架,包括 Segment-Guided Matching 和 Recurrent Flow Refinement 模块,能够有效解决动画视频的颜色匹配和非线性动作问题,该方法在大规模动画三重奏数据集 ATD-12K 上表现优于现有最先进的插帧方法,并具有较优的视觉质量和鲁棒性。
Apr, 2021
MotionCrafter 是一种新型一次性实例引导的动作定制方法,通过并行的时空架构注入参考动作到基础模型的时间部分,同时独立调整空间模块以进行角色或风格控制,以增强动作与外观的解耦,进而维持多样性,量化和定性实验证明了 MotionCrafter 在整合动态动作、保持一致性和提供广泛外观生成能力方面的成功。
Dec, 2023
通过多层次引导和深度学习方法,我们提出了一种新型的动画插画网络,名为 FC-SIN,用于快速生成流畅的 2D 动画插画。在大规模数据集 STD-12K 上的综合实验证明,我们的方法优于现有的插值方法,并且我们的代码和数据集将公开提供。
Aug, 2023
该研究提出了一种新的卡通化方法,利用纹理和颜色分离的解码器来实现编辑功能并控制生成多样的卡通风格,相比之前的基于端到端翻译的方法在推理时具有更好的品质表现。
Dec, 2022
提出 AniClipart 系统,将静态 clipart 图像转化为高质量的动态序列,并展示了其在文本到视频生成中的优越性和多样化应用。
Apr, 2024
通过将静止图像与动态相结合,提供更具吸引力的视觉体验。
Oct, 2023
本研究提出使用 AutoFI 进行深度动画视频插值的方法,不断优化框架,提高了训练数据线性运动假设的准确性并使用 SktFI 进行后期精细处理,大幅提升了生成动画的视觉效果。
Jun, 2022
本文提出了一种基于对抗性递归神经网络的新型、稳健的过渡生成技术,可以作为 3D 动画师的新工具。系统合成了高质量的运动,使用时间稀疏的关键帧作为动画约束。我们提出了两种新的加性嵌入修饰符,它们被应用在网络架构中的潜在表示内,用于解决仅在未来关键帧添加调节信息时无法将状态 - of-the-art 的运动预测模型转换为稳健的过渡生成器的问题。为了定量评估我们的方法,我们在 Human3.6M 数据集的子集和适用于转换生成的新型佐佛摸捉数据集 LaFAN1 上提供了明确定义的中间演算基准。同时,本文还发布了这个新数据集和可重现我们基准结果的伴随代码。
Feb, 2021
本文提出了一种用于无配对数据的跨领域面部重现方法,通过转换器为不同领域中的动作在共同的潜变量空间进行对齐和转移,采用两个特定领域的运动编码器和可学习的运动基础记忆单元进行特性捕捉,并通过类比约束使用两个领域的数据进行新颖的跨领域训练方案,实验结果表明我们的方法优于其他竞争方法。
本文介绍了一种基于卷积神经网络的 inbetweening 方法,该方法可直接处理扫描图像,无需显式计算线条的对应关系和拓扑变化,并在实际动画制作实验中得到了部分中间帧的良好生成效果。
Jun, 2017