CIFAKE: 人工智能生成的合成图像的图像分类和可解释标识
利用机器学习技术来区分 AI 生成的合成图像和真实图像,通过优化深度学习模型和对比实验结果表明,深度学习模型可以更准确地识别合成图像,进一步推动数字媒体可信度及 AI 生成内容的伦理和技术探索。
Jan, 2024
通过引入傅里叶频率分解和双分支神经网络架构,我们提出了一种可以检测人工智能生成图像的工具,有效解决了在道德层面上区分真实图像和虚假图像的难题,达到了与一些最先进的架构相当的性能。
Jun, 2024
本篇论文旨在通过 ArtiFact 大型数据集以及多分类分类方案和滤波步幅缩减策略,检测来自已知和未知生成器的合成图像,以增强合成图像探测器的泛化和鲁棒性。结果表明,该方案在 IEEE VIP Cup ICIP 2022 挑战赛上取得了明显的优势。
Feb, 2023
探索合成人脸图像检测的实验研究。我们收集了一个称为 FF5 的数据集,包括近期的扩散模型,发现一个简单的模型在区分合成和真实图像方面能够达到近乎完美的准确率。该模型通过使用数据增强来处理常见的图像失真(降低分辨率、压缩)。此外,我们通过简单的 YOLO 架构模型识别了合成图像被修复到真实图像中的部分篡改,并定位了篡改区域。然而,该模型存在易受对抗性攻击的问题,并且对未见过的生成器无法泛化。我们还测试了最近的最先进方法在经过微调的 StabilityAI 的 Stable Diffusion 图像生成器上无法泛化来检测由新一代生成器产生的图像。
Jun, 2024
评估生成模型检测的概括性和鲁棒性,我们提供了一个大规模数据集 WildFake,包含最新的生成器、各种物体类别和实际应用,其丰富性和层次结构提高了对 WildFake 上训练的检测器的泛化性和鲁棒性,从而展示 WildFake 在真实场景下作为 AI 生成图像检测器的重要性和有效性。
Feb, 2024
本研究旨在验证通过预处理和数据增强,一个经典 CNN 生成器(ProGAN)训练出的图像分类器可以很好地适应不同的 CNN 生成器体系结构,数据集和训练方法,并发现了 CNN-generated images 的一些共同系统缺陷。
Dec, 2019
基于人工智能图像生成的技术不断提升,产生更具逼真性且视觉缺陷较少的图像。这些图像被用于创建虚假在线账户,用于垃圾邮件、欺诈和虚假信息传播活动。本研究聚焦于区分真实的面部和基于人工智能生成的面部,以解决使用伪造用户头像的非真实在线账户检测问题。通过仅关注面部,我们展示了一种更具有弹性和通用性的工件,可以检测来自各种生成对抗网络和扩散基础合成引擎的人工智能生成面部,同时适用于多种图像分辨率(低至 128 x 128 像素)和质量。
Nov, 2023
该研究探究了在合成图像检测中使用人工智能支持的人类操作员与使用传统方法训练的模型的效果比较,结果发现人工智能在训练时使用的人类指导会提供更好的图像分类支持。同时,向人类操作员提供合成图像检测模型的决策或热点映射可以提高模型的分类准确性并增加人类操作员的信任感,从而提高人类操作员与人工智能合作的效果。
Aug, 2022
通过分析真实深度伪造和合成面部图像,我们探索了趋势和模式,发现深度学习模型更容易检测合成面部图像,ViT Patch-16 模型在这个任务中表现最佳,敏感性、特异性、精确度和准确度分别为 97.37%,98.69%,97.48%和 98.25%。这个分析可以帮助我们构建更好的面部图像生成算法,并证明合成、深度伪造和真实脸部图像确实是三个不同的类别。
Apr, 2024
该研究探讨了在计算机视觉和深度学习领域中,对抗生成网络(GAN)所生成的图像识别与分类中的持续性学习问题,并提出了一种基于增量学习的方法来解决这个问题。通过实验和数据集,该方法的正确性得到了验证。
Oct, 2019