AI 产生的图像、视频、音频和音视频刺激的人类检测与抛硬币一样好
AI 生成的媒体对我们所知的数字社会构成威胁。与技术进步相比,人们对生成媒体的感知尚未得到彻底研究。本文通过针对音频、图像和文本媒体跨三个国家(美国、德国和中国)的 3,002 位参与者进行全面的调查,结果显示,最先进的赝品几乎无法与 “真实” 媒体区分,大多数参与者在被要求评价时只是猜测它们是人工生成的还是机器生成的。此外,AI 生成的媒体在所有媒体类型和所有国家中更容易被误认为是人类产生的。为了进一步了解影响人们对生成媒体检测能力的因素,本文根据对 deepfake 和虚假新闻研究领域的文献综述,包括个人变量。通过回归分析,我们发现广义信任、认知反思和自报熟悉程度等个人变量显著影响参与者在所有媒体类别中的决策。
Dec, 2023
人们对深度伪造视频的感知能力进行主观研究,结果显示机器学习模型相对于人类在同样的 40 个视频上有更好的表现,而人们又往往高估了自己的检测能力。这一研究结果有助于对比人类和机器的性能、推进法医分析,并实现自适应对策。
May, 2024
本研究探究当前最先进的基于人工智能技术的视觉内容生成模型是否可以始终欺骗人类眼睛和传达错误信息,并通过高质量的定量研究揭示,人类不能在很大程度上区分真实的照片和人工智能创造的虚假照片。
Apr, 2023
研究表明,人们对于真实和伪造的政治演讲的辨别能力更多地依赖于音频和视觉线索,而并非演讲内容本身。然而,反思性推理能力会调节参与者对视觉线索的考虑程度,反应出低反思性推理能力与过度依赖演讲内容的趋势。
Feb, 2022
该研究探究了在合成图像检测中使用人工智能支持的人类操作员与使用传统方法训练的模型的效果比较,结果发现人工智能在训练时使用的人类指导会提供更好的图像分类支持。同时,向人类操作员提供合成图像检测模型的决策或热点映射可以提高模型的分类准确性并增加人类操作员的信任感,从而提高人类操作员与人工智能合作的效果。
Aug, 2022
通过人类语义知识和眼动实验研究假图像检测的可能性,结果显示人们在感知伪造样本时倾向于关注图像的更局部区域,与观看真实图像时更分散的观察模式形成对比。
Mar, 2024
利用机器学习技术来区分 AI 生成的合成图像和真实图像,通过优化深度学习模型和对比实验结果表明,深度学习模型可以更准确地识别合成图像,进一步推动数字媒体可信度及 AI 生成内容的伦理和技术探索。
Jan, 2024
生成式人工智能的最新进展已经导致了生成视觉逼真合成视频的技术的发展。本文证明合成图像检测器无法检测合成视频,因为合成视频生成器引入的痕迹与图像生成器留下的痕迹明显不同。尽管如此,我们展示了合成视频痕迹是可以学习的,并且可以在 H.264 重新压缩后用于可靠的合成视频检测或生成器来源归因。此外,我们还证明了通过零样本迁移进行新生成器的视频检测具有挑战性,但可以通过少样本学习实现对新生成器的准确检测。
Apr, 2024
通过分析真实深度伪造和合成面部图像,我们探索了趋势和模式,发现深度学习模型更容易检测合成面部图像,ViT Patch-16 模型在这个任务中表现最佳,敏感性、特异性、精确度和准确度分别为 97.37%,98.69%,97.48%和 98.25%。这个分析可以帮助我们构建更好的面部图像生成算法,并证明合成、深度伪造和真实脸部图像确实是三个不同的类别。
Apr, 2024
本研究通过混合方法,探讨了在线教育是否具有使用基于生成人工智能技术的合成视频来创造有用的教育内容的潜力,并发现人工智能生成的合成视频可以成为在线教育中传统方法所制作视频的替代方案。
Apr, 2023