AAPMT:通过提示和度量变换器进行人工通用智能评估
通过图像和提示的融合,IP-IQA 是一个多模态框架,旨在解决 AI 生成图像质量评估中的问题,并在 AGIQA-1k 和 AGIQA-3k 数据集上达到最先进的水平。
Mar, 2024
利用深度神经网络对 AI 生成的图像进行质量评估存在挑战,我们引入了一个大型多模态模型辅助 AI 生成图像质量评估(MA-AGIQA)模型,通过文本提示敏锐感知语义信息并提取语义向量,并使用专家混合结构动态整合语义信息和传统 DNN 基于 IQA 模型提取的质量感知特征来解决当前 IQA 模型在语义感知方面的不足,实验证明 MA-AGIQA 在评估 AI 生成图像质量方面具有最先进的性能和出色的泛化能力。
Apr, 2024
该研究旨在解决基于文本生成图像的模型中存在的主观质量差异问题并提出了 StairReward 模型评估主观文本图像对齐的一致性,并以此建立了 AGIQA-3K 数据库。
Jun, 2023
我们通过对自动评价度量和人类模板进行广泛研究,介绍了一种综合的基于技能的基准,收集了超过 100,000 个注释,并引入了一种新的基于问答的自动评价度量,以在各种人类模板和 TIFA160 上更好地与人类评分相关联。
Apr, 2024
我们提出了一个基于文本和图像编码器的回归(TIER)框架,用于评估从人类感知角度来看的人工智能生成图像的质量,实验证明我们的方法在大多数情况下相较于基准表现出更优异的性能。
Jan, 2024
研究提出了一种基于混合提示编码和基于集成的特征混合模块的 AIGC 质量评估框架,验证了方法在两个数据集上的有效性,从而促进了多模态生成领域的研究发展。
Apr, 2024
近年来,图像生成技术迅速发展,产生了大量的人工智能生成图像(AIGIs),然而,这些 AIGIs 的质量不一致,并严重影响了用户的视觉体验。因此,基于人类感知角度评估 AIGIs 质量的 AI 生成图像质量评估(AIGIQA)引起了学者们的广泛关注,然而,现有研究尚未完全探索该领域。本研究通过构建名为 PKU-AIGIQA-4K 的大规模感知质量评估数据库,旨在填补现有研究领域中的关键空白,该数据库兼顾文本到图像和图像到图像的 AIGIs,提出了基于预训练模型的三种图像质量评估方法:无参考方法 NR-AIGCIQA,全参考方法 FR-AIGCIQA 和部分参考方法 PR-AIGCIQA,并利用 PKU-AIGIQA-4K 数据库进行了广泛的基准实验,与当前的图像质量评估方法进行了比较。
Apr, 2024
通过针对 prompt 模板的新度量方法,本文对多种 Text-to-Image(T2I)模型的对齐性进行了研究,并发现潜在噪声和提示概念数量、顺序和属性等因素对图像生成的影响。
Jul, 2023
提出了一种基于视觉 - 语言一致性指导的多模态提示学习方法,称为 CLIP-AGIQA,用于盲目的 AI 生成图像质量评估,该方法在两个公共 AGIQA 数据集上的实验结果表明其优于现有的质量评估模型。
Jun, 2024