CLIP-AGIQA:提升AI生成图像质量评估性能的方法
该研究旨在解决基于文本生成图像的模型中存在的主观质量差异问题并提出了StairReward模型评估主观文本图像对齐的一致性,并以此建立了AGIQA-3K数据库。
Jun, 2023
基于人类感知的图像到图像AIGC图像质量评估数据库PKU-I2IQA的建立,引入两个基准模型:基于无参考图像质量评估的NR-AIGCIQA和基于全参考图像质量评估的FR-AIGCIQA,并通过基准实验比较了两个模型的性能。
Nov, 2023
我们提出了一个基于文本和图像编码器的回归(TIER)框架,用于评估从人类感知角度来看的人工智能生成图像的质量,实验证明我们的方法在大多数情况下相较于基准表现出更优异的性能。
Jan, 2024
通过图像和提示的融合,IP-IQA是一个多模态框架,旨在解决AI生成图像质量评估中的问题,并在AGIQA-1k和AGIQA-3k数据集上达到最先进的水平。
Mar, 2024
我们在本文中介绍了一系列有效的方法,包括提示设计和指标转换器,以开发可以更贴近人类感知评价图像质量、真实性和文本与图像一致性等参数的模型。
Mar, 2024
通过对大规模互联网数据集进行预训练后,在真实图像和人工智能生成图像进行微调,我们展示了细调后的Contrastive Language-Image Pre-training(CLIP)架构能够与专门设计用于检测人工智能生成图像的模型相媲美甚至更好地区分人工智能生成图像,并且能够确定生成方法。我们的方法将显著提高人工智能生成图像检测工具的可用性,减少人工智能生成图像对社会的负面影响,因为我们的CLIP微调过程不需要对公开可用模型仓库进行架构更改,而且消耗的GPU资源明显更少。
Apr, 2024
利用深度神经网络对AI生成的图像进行质量评估存在挑战,我们引入了一个大型多模态模型辅助AI生成图像质量评估(MA-AGIQA)模型,通过文本提示敏锐感知语义信息并提取语义向量,并使用专家混合结构动态整合语义信息和传统DNN基于IQA模型提取的质量感知特征来解决当前IQA模型在语义感知方面的不足,实验证明MA-AGIQA在评估AI生成图像质量方面具有最先进的性能和出色的泛化能力。
Apr, 2024
近年来,图像生成技术迅速发展,产生了大量的人工智能生成图像(AIGIs),然而,这些AIGIs的质量不一致,并严重影响了用户的视觉体验。因此,基于人类感知角度评估AIGIs质量的AI生成图像质量评估(AIGIQA)引起了学者们的广泛关注,然而,现有研究尚未完全探索该领域。本研究通过构建名为PKU-AIGIQA-4K的大规模感知质量评估数据库,旨在填补现有研究领域中的关键空白,该数据库兼顾文本到图像和图像到图像的AIGIs,提出了基于预训练模型的三种图像质量评估方法:无参考方法NR-AIGCIQA,全参考方法FR-AIGCIQA和部分参考方法PR-AIGCIQA,并利用PKU-AIGIQA-4K数据库进行了广泛的基准实验,与当前的图像质量评估方法进行了比较。
Apr, 2024
提出了一种基于视觉-语言一致性指导的多模态提示学习方法,称为CLIP-AGIQA,用于盲目的AI生成图像质量评估,该方法在两个公共AGIQA数据集上的实验结果表明其优于现有的质量评估模型。
Jun, 2024