一种用于动态视觉刺激生成的时空风格迁移算法
本文提出了一种基于空间 - 时间变换器 (STTran) 的神经网络,用于生成给定视频的动态场景图。STTran 包括一个空间编码器和一个时间解码器,能够有效地捕捉对象之间的视觉关系和帧之间的时间依赖。与已有方法相比,我们的方法在 Action Genome 数据集上表现出了更好的性能。
Jul, 2021
本文提出了一种基于深度神经网络的算法,通过将图像的语义有意义的本地区域的艺术风格转移至目标视频的本地区域,同时保持其照片般的逼真性,并通过噪声和时间损失来优化视频的语义标签和平滑转换风格,最终实现一种能够自动生成视觉媒体的风格迁移方法。
Oct, 2020
本文提出了一种新颖的双通路神经网络,旨在解决立体图像的风格转移的问题,该方法通过特征聚合策略在两条路径之间共享信息,利用多层视图损失强制实现双视图一致性,实验表明该方法相比之前的方法表现更好。
Feb, 2018
通过引入一种 MoStAtt 机制,该研究提出了一种基于运动风格的视频生成模型,以增强帧的生动动态效果,并在四个条件下进行了使用大量跨帧的 256 × 256 合成视频,表现出了最先进的性能。
Apr, 2023
本文提出了一种新颖的 STTR 网络,采用视觉令牌将内容和样式映射到细粒度的特征空间,采用自注意力机制和交叉注意力机制实现微观的样式转换,在人造数据集的评估中取得了较高的效果。
Oct, 2022
本文提出了一种基于区域语义的多样式迁移框架,其中引入了新的多级特征融合模块和补丁注意力模块来实现更好的语义对应和保留更丰富的样式细节,并使用区域风格融合模块将多个样式无缝地结合在一起,实现更丰富、更美观的多样式迁移结果。
Oct, 2019
通过参数化空时交通数据(STTD)为隐式神经表示,我们提供了一种新的方法来解决 STTD 学习问题。通过在低维度范围内识别潜在动力学和分解空时交互作用,我们的方法能够进行各种 STTD 的建模,并展示了其在实际应用中的有效性。
May, 2024
本研究提出了基于多样性的风格转换技术 (MST),通过将风格图像特征聚类为次级风格组件,并采用图割公式将其与本地内容特征相匹配来明确考虑内容和风格图像的语义模式匹配,从而实现更灵活,更通用的风格转换技术。
Apr, 2019
提出了一种新的空间 - 时间对比学习(CL4ST)框架,通过 STG 的扩充范式来编码稳健和可推广的 STG 表示,实验证明 CL4ST 在交通和犯罪预测方面明显优于各种最先进的基准模型。
Oct, 2023
本文提出了一种新的神经样式转换模型,它是基于无需相关风格图像,可用于任何内容和风格的输入形成语义准确的生成图像,规避了全模型训练的烦恼,并通过单向 GAN 模型的确保循环一致性的结构,实现了更高效的训练和验证阶段以及更小的模型尺寸。
Feb, 2023