人工智能生成图像的视觉真实性:计算指标与以人为本的分析
本研究探究当前最先进的基于人工智能技术的视觉内容生成模型是否可以始终欺骗人类眼睛和传达错误信息,并通过高质量的定量研究揭示,人类不能在很大程度上区分真实的照片和人工智能创造的虚假照片。
Apr, 2023
该研究旨在解决基于文本生成图像的模型中存在的主观质量差异问题并提出了StairReward模型评估主观文本图像对齐的一致性,并以此建立了AGIQA-3K数据库。
Jun, 2023
通过五个统计量计算的图像逼真度评分(IRS)是一个高效的图像逼真度度量,也可用作判断图像真实与否的指标。实验结果表明,IRS可以成功检测由多种高质量生成模型生成的假图像,并且可以通过改进模型的生成损失函数,显著提高生成内容的质量。
Sep, 2023
我们在本文中提出了一种经验研究,介绍了一种用于文本到图像(T2I)生成模型的细致评估框架,应用于人类图像合成。我们的框架将评估分为两个不同的组别:第一组主要关注美学和真实性等图像质量,第二组则检验文本条件,包括概念覆盖和公平性。我们引入了一种创新的美学评分预测模型,评估生成图像的视觉吸引力,并首次提供了标记有生成人类图像低质量区域的数据集以便进行自动缺陷检测。我们对概念覆盖的探索考察了模型准确解释和渲染基于文本的概念的有效性,而公平性分析则揭示了模型输出中的偏见,特别关注性别、种族和年龄。尽管我们的研究以人类图像为基础,但这种双重面向的方法被设计成具有灵活性,可以应用于其他形式的图像生成,增强我们对生成模型的理解,并为下一代更复杂、具有上下文意识和伦理关注的生成模型铺平道路。我们将很快发布我们的代码,用于评估生成模型的数据以及标注有有缺陷区域的数据集。
Mar, 2024
最近的文本到图像合成研究利用语言和视觉结合的基础模型取得了突破。为了确保文本和图像之间的内容对齐,研究人员开发了新的评估指标,通过收集带有复杂注释的数据集来研究视觉-语言模型的组合性以及作为内容对齐质量度量的能力。本文全面介绍了现有的文本到图像评估指标,并提出了一种新的对这些指标进行分类的分类方法。我们还回顾了经常使用的文本-图像基准数据集,并讨论了优化文本到图像合成模型的技术以提高质量和人类偏好的准则。最后,我们提出了改进文本到图像评估的准则,并讨论了目前的挑战和限制。
Mar, 2024
通过考虑15个流行生成模型和动态超参数,本研究组织了一项挑战,全面评估人类主观评分、感知质量和文本图像对齐等方面,以创建迄今最大的细粒度AIGI主观质量数据库AIGIQA-20K,并通过基准实验评估16个主流AIGI质量模型与人类感知之间的相应关系。预期该数据库将推动AIGC在视觉领域的进展。
Apr, 2024
这项研究基于Text-to-Video人工智能生成内容 (AIGC) 的最新进展,针对AIGC视频的质量评估遇到的挑战进行了分类,并提出了特定模块来综合评估AIGC视频的视觉和内容一致性,在不同的生成模型中发现了重要的视觉质量、流畅度和风格差异。通过预测源生成模型,可以提高AIGC视频特性的差异性,从而提高质量评估性能。该方法在NTIRE 2024质量评估比赛中获得了第三名,展示了其有效性。
Apr, 2024
近年来,图像生成技术迅速发展,产生了大量的人工智能生成图像(AIGIs),然而,这些AIGIs的质量不一致,并严重影响了用户的视觉体验。因此,基于人类感知角度评估AIGIs质量的AI生成图像质量评估(AIGIQA)引起了学者们的广泛关注,然而,现有研究尚未完全探索该领域。本研究通过构建名为PKU-AIGIQA-4K的大规模感知质量评估数据库,旨在填补现有研究领域中的关键空白,该数据库兼顾文本到图像和图像到图像的AIGIs,提出了基于预训练模型的三种图像质量评估方法:无参考方法NR-AIGCIQA,全参考方法FR-AIGCIQA和部分参考方法PR-AIGCIQA,并利用PKU-AIGIQA-4K数据库进行了广泛的基准实验,与当前的图像质量评估方法进行了比较。
Apr, 2024
本研究针对当前AI生成图像质量评估技术不足的问题,提出了一种基于CLIP的回归模型CLIP-AGIQA,以充分利用其丰富的视觉和文本知识。实验结果表明,CLIP-AGIQA在多个生成图像质量评估基准测试中优于现有模型,显示出有前景的应用潜力。
Aug, 2024