揭示幻觉:理解人类对音视频深度伪造的感知
研究表明,人们对于真实和伪造的政治演讲的辨别能力更多地依赖于音频和视觉线索,而并非演讲内容本身。然而,反思性推理能力会调节参与者对视觉线索的考虑程度,反应出低反思性推理能力与过度依赖演讲内容的趋势。
Feb, 2022
通过综述现有的 deepfake 生成和检测技术,本文分析了基于深度学习的 deepfake 创建方法和检测技术,并讨论了当前的 deepfake 检测方法的局限性和挑战,以及未来的研究方向,强调了对 deepfake 检测技术持续研究和发展的重要性,以应对 deepfake 对社会的负面影响,并确保数字视觉媒体的完整性。
Sep, 2023
研究了不同专业的大学生对音频 Deepfake 的感知,针对政治因素、语音长度和语法复杂度等方面进行分析,发现音频 Deepfake 的政治含义会影响人们对于其真实性的认知,背景和专业会影响 Deepfake 的感知。
Dec, 2021
通过用户研究,发现即使对于新手用户,在有足够的工具和时间的情况下制作 Deepfakes 也是一项简单的任务。但是,由于不够真实,Deepfakes 无法完全欺骗检测软件和人类检查员。
Apr, 2023
在本文中,我们使用基于 GAN 的开源软件从 VidTIMIT 数据库的视频生成 Deepfake 视频,调整不同的训练和混合参数对生成视频的质量有显著影响,并表明当前的人脸识别系统和现有的检测方法都很容易受到 Deepfake 视频的干扰。
Dec, 2018
本文旨在探讨生成深度学习算法如何创作和侦测 Deepfakes,并提供对其工作原理的深入了解以及当前领域的趋势和进展、目前防御解决方案的不足之处以及需要进一步研究和关注的领域。
Apr, 2020
AI 生成的媒体对我们所知的数字社会构成威胁。与技术进步相比,人们对生成媒体的感知尚未得到彻底研究。本文通过针对音频、图像和文本媒体跨三个国家(美国、德国和中国)的 3,002 位参与者进行全面的调查,结果显示,最先进的赝品几乎无法与 “真实” 媒体区分,大多数参与者在被要求评价时只是猜测它们是人工生成的还是机器生成的。此外,AI 生成的媒体在所有媒体类型和所有国家中更容易被误认为是人类产生的。为了进一步了解影响人们对生成媒体检测能力的因素,本文根据对 deepfake 和虚假新闻研究领域的文献综述,包括个人变量。通过回归分析,我们发现广义信任、认知反思和自报熟悉程度等个人变量显著影响参与者在所有媒体类别中的决策。
Dec, 2023
针对如今深度学习技术生成的深度伪造技术的滥用所带来的严重安全和隐私问题,本研究提出了 FakeAVCeleb 这一包含视频和相应的合成唇同步伪造音频的新型多模态 Audio-Video Deepfake 数据集,其有助于打破现存音频和视频上的种族偏见,进一步帮助发展多模态深度伪造检测器。
Aug, 2021