将文本提示引入 AI 生成的图像质量评估
提出了一种基于视觉 - 语言一致性指导的多模态提示学习方法,称为 CLIP-AGIQA,用于盲目的 AI 生成图像质量评估,该方法在两个公共 AGIQA 数据集上的实验结果表明其优于现有的质量评估模型。
Jun, 2024
研究提出了一种基于混合提示编码和基于集成的特征混合模块的 AIGC 质量评估框架,验证了方法在两个数据集上的有效性,从而促进了多模态生成领域的研究发展。
Apr, 2024
该文章介绍了一种基于多模式提示的创新图像质量评估方法,通过精心设计的提示,从视觉和语言数据中挖掘增量语义信息,在不同数据集上展现出竞争性能,达到了鲁棒性和准确性的提升。
Apr, 2024
通过使用图像 - 得分对(ISP)来引导预测,并通过数据增强策略训练,我们提出了 PromptIQA 方法来适应各种多样化的 IQA 任务需求,并具有更高的性能和更好的泛化能力。
Mar, 2024
近年来,图像生成技术迅速发展,产生了大量的人工智能生成图像(AIGIs),然而,这些 AIGIs 的质量不一致,并严重影响了用户的视觉体验。因此,基于人类感知角度评估 AIGIs 质量的 AI 生成图像质量评估(AIGIQA)引起了学者们的广泛关注,然而,现有研究尚未完全探索该领域。本研究通过构建名为 PKU-AIGIQA-4K 的大规模感知质量评估数据库,旨在填补现有研究领域中的关键空白,该数据库兼顾文本到图像和图像到图像的 AIGIs,提出了基于预训练模型的三种图像质量评估方法:无参考方法 NR-AIGCIQA,全参考方法 FR-AIGCIQA 和部分参考方法 PR-AIGCIQA,并利用 PKU-AIGIQA-4K 数据库进行了广泛的基准实验,与当前的图像质量评估方法进行了比较。
Apr, 2024
我们在本文中介绍了一系列有效的方法,包括提示设计和指标转换器,以开发可以更贴近人类感知评价图像质量、真实性和文本与图像一致性等参数的模型。
Mar, 2024
利用深度神经网络对 AI 生成的图像进行质量评估存在挑战,我们引入了一个大型多模态模型辅助 AI 生成图像质量评估(MA-AGIQA)模型,通过文本提示敏锐感知语义信息并提取语义向量,并使用专家混合结构动态整合语义信息和传统 DNN 基于 IQA 模型提取的质量感知特征来解决当前 IQA 模型在语义感知方面的不足,实验证明 MA-AGIQA 在评估 AI 生成图像质量方面具有最先进的性能和出色的泛化能力。
Apr, 2024
该研究旨在解决基于文本生成图像的模型中存在的主观质量差异问题并提出了 StairReward 模型评估主观文本图像对齐的一致性,并以此建立了 AGIQA-3K 数据库。
Jun, 2023
我们提出了一个基于文本和图像编码器的回归(TIER)框架,用于评估从人类感知角度来看的人工智能生成图像的质量,实验证明我们的方法在大多数情况下相较于基准表现出更优异的性能。
Jan, 2024
基于人类感知的图像到图像 AIGC 图像质量评估数据库 PKU-I2IQA 的建立,引入两个基准模型:基于无参考图像质量评估的 NR-AIGCIQA 和基于全参考图像质量评估的 FR-AIGCIQA,并通过基准实验比较了两个模型的性能。
Nov, 2023