研究表明,人们对于真实和伪造的政治演讲的辨别能力更多地依赖于音频和视觉线索,而并非演讲内容本身。然而,反思性推理能力会调节参与者对视觉线索的考虑程度,反应出低反思性推理能力与过度依赖演讲内容的趋势。
Feb, 2022
通过人类语义知识和眼动实验研究假图像检测的可能性,结果显示人们在感知伪造样本时倾向于关注图像的更局部区域,与观看真实图像时更分散的观察模式形成对比。
Mar, 2024
本文提出了一种新颖的方法来检测肖像视频的合成内容,通过使用隐藏在肖像视频中的生物信号作为真实性的隐含描述符,并通过信号转化和卷积神经网络,最终实现了检测 deep fake 的效果达到了高准确率。
Jan, 2019
通过综述现有的 deepfake 生成和检测技术,本文分析了基于深度学习的 deepfake 创建方法和检测技术,并讨论了当前的 deepfake 检测方法的局限性和挑战,以及未来的研究方向,强调了对 deepfake 检测技术持续研究和发展的重要性,以应对 deepfake 对社会的负面影响,并确保数字视觉媒体的完整性。
Sep, 2023
深度伪造生成对场景整体几何和采集过程造成了特征变化,通过分析图像中表面的特征可生成一个可用于深度伪造检测的描述符,称为 SurFake。在各种深度伪造和深度学习模型上进行的实验结果证实了该特征可用于区分原始图像和经过篡改的图像,并且实验证明结合视觉数据可提高检测准确性。
Oct, 2023
人们对深度伪造视频的感知能力进行主观研究,结果显示机器学习模型相对于人类在同样的 40 个视频上有更好的表现,而人们又往往高估了自己的检测能力。这一研究结果有助于对比人类和机器的性能、推进法医分析,并实现自适应对策。
May, 2024
生成式人工智能的最新进展已经导致了生成视觉逼真合成视频的技术的发展。本文证明合成图像检测器无法检测合成视频,因为合成视频生成器引入的痕迹与图像生成器留下的痕迹明显不同。尽管如此,我们展示了合成视频痕迹是可以学习的,并且可以在 H.264 重新压缩后用于可靠的合成视频检测或生成器来源归因。此外,我们还证明了通过零样本迁移进行新生成器的视频检测具有挑战性,但可以通过少样本学习实现对新生成器的准确检测。
Apr, 2024
该研究提出了利用每个人独特的面部运动签名学习嵌入的想法来解决合成视频向肖像进行滥用的问题,同时贡献了一个大规模的数据集来解决这个新的 avatar fingerprinting 任务。
May, 2023
本综述分析了视觉媒体完整性验证的方法,着重于探讨深度伪造现象和现代数据驱动的法医分析方法,以揭示现有取证工具的限制、相关问题、挑战和未来研究方向。
Jan, 2020
本文采用人工智能技术生成目标人物的视频,并提出了三个方面的挑战:将每个视频帧解构成前景和背景,提出一种理论驱动的 Gromov-Wasserstein 损失,对面部特征进行几何引导并使用本地 GANs 细化脸部、脚部和手部。实验结果表明,我们的方法能够生成具有逼真的目标人物的视频,忠实地复制源人物的复杂动作。
May, 2022