DeCoF: 通过帧一致性生成视频检测
本文探讨了利用时间上下文对视频中的脸部伪造进行检测的方法,并提出了一种新的端到端框架,包括全时卷积网络和时间变换网络,实验证明了该方法的有效性。
Aug, 2021
本文构建了一个视频数据集,使用先进的扩散式视频生成算法和多种语义内容,并采用 typcial video lossy 操作生成退化样本。随后,通过分析当前 AI 生成视频的局部和全局时间缺陷,构建了一个新的检测框架,通过自适应学习局部运动信息和全局外观变化来暴露伪造视频。最后,进行实验评估了不同空间和时间域检测方法的泛化性和鲁棒性,结果可以作为基线,并展示未来研究的挑战。
May, 2024
本文提出了一种全面解释的视频法医方法,旨在暴露 DeepFake,通过建模视频中多个特定空间位置的时间运动来提取强大而可靠的表示形式,称为 Co-Motion Pattern,该方法具有优越的可解释性和充分的鲁棒性。
Aug, 2020
本文提出一种简单而有效的方法来实现一致性视频编辑,通过优化潜在编码和预先训练的生成器,减少时间光度不一致,并在不同领域和 GAN 逆推技术上得到了有利的结果。
Jun, 2022
提出了一种新的视频伪装目标检测 (VCOD) 框架,可以利用短期动态和长期时间一致性来检测视频帧中的伪装目标,采用单一优化框架统一了运动估计和对象分割,并使用空间 - 时间变换器从而有效地处理视频的时间动态,提供了一个名为 MoCA-Mask 的大规模 VCOD 数据集,为该方向的研究建立了综合性的基准测试。
Mar, 2022
本文提出了一种用于检测由多个最先进的生成模型合成的视频的新框架,通过 CNN + LSTM 架构从扩散模型中提取显式知识的表征,并且在域内视频上实现了 93.7% 的检测准确率,并使域外视频的准确率提高了 16 个百分点。
Jun, 2024
通过使用生成变形场的方法,我们提出了一种全新的视频生成视角,可以有效地利用一张静态图像进行视频合成以提高视觉质量,并且实现对视频的内容和动作的解耦,使用户可以通过处理对应的静态图像来处理合成的视频,从而方便了许多应用如视频编辑、关键点跟踪和视频分割。
Dec, 2023
近年来,深度生成模型在图像合成方面取得了可观的进展,但在视频领域的学习则更为困难,需要模型同时捕获场景的时间动态和对象的视觉呈现。该研究提出了用于评价视频生成模型的新评价度量 - Fréchet Video Distance,并提供了基于 StarCraft 2 的新的视频生成模型挑战基准进行了大规模的人体研究和初始基准结果。
Dec, 2018
FloCoDe 通过使用流进行特征扭曲以检测帧间时间一致的对象,并使用相关性去偏学习长尾类别的无偏关系表示,通过混合 sigmoid 交叉熵损失和对比损失以缓解预测不确定性,实现生成更加无偏的场景图,性能提升高达 4.1%。
Oct, 2023