通过 Transformer 预测错误图和感知质量令牌进行盲图像质量评估
提出了一种新颖的模型,它通过卷积神经网络和 Transformers 中的自我关注机制,从输入图像中提取局部和非局部特征来解决无参考图像质量评估(NR-IQA)任务,同时提供自我一致性作为一个自我监督信号来提高模型的鲁棒性。经过在七个标准 IQA 数据集上的测试,证明了该模型达到了各种数据集上的最先进成果。
Aug, 2021
探索基于 transformer 的全参考图像质量评估模型的性能,并提出了一种基于半监督知识蒸馏的 IQA 方法,使用嘈杂的伪标签数据将全参考教师模型蒸馏到盲学生模型中。在 NTIRE 2022 感知图像质量评估挑战中,我们的方法取得了竞争力的结果。
Apr, 2022
提出了一种基于 Vision Transformer (ViT) 模型的无参考图像质量评估 (NR-IQA) 方法 Cross-IQA,可以从无标签图像数据中学习图像质量特征,并利用预训练的编码器进行线性回归模型的微调,实现了对图像的低频降级信息(如颜色变化、模糊等)的先进性能评估。
May, 2024
在这篇论文中,我们提出了一种基于监督对比学习与 Transformer 的图像质量评估模型 SaTQA,该模型通过 SCL 在大规模合成数据集上进行训练,从而提取出具有各种失真类型和水平的图像退化特征,并结合了 CNN 的归纳偏置和 Transformer 的长期依赖建模能力来进一步提取图像的失真信息,最终通过融合对比学习学到的退化特征和骨干网络提取的感知失真信息获取最终的失真图像质量得分。实验结果表明,SaTQA 在合成和真实数据集上都优于目前的最先进方法。
Dec, 2023
本文提出一种基于 Transformer 架构的盲图像质量评价系统,具有高效的质量感知特征表示和强大的泛化能力,并且引入注意力面板机制来改善模型性能和减少预测不确定性。
Apr, 2023
本研究探究 Transformer 在图像质量评估(TRIQ)中的应用,通过在卷积神经网络(CNN)提取的特征图上使用浅层 Transformer 编码器,采用自适应位置嵌入来处理任意分辨率的图像,通过在公共图像质量数据库上研究 Transformer 不同设置来证明所提出的 TRIQ 架构具有出色的性能。
Dec, 2020
无参考图像质量评估中,无监督学习的质量表示具有广泛的扭曲捕捉能力,并通过视觉语言模型提取高层次的图像质量信息,将这两组特征结合训练简单回归器有效预测质量,并展示了这些特征在数据有效和零样本情况下的优越性能。
Dec, 2023
本文介绍了最新的反感知 (IR) 算法基于生成对抗网络 (GANs),但其定量评估与视觉感知质量存在不一致性。为了回答现有的 IQa 方法能否客观评价最近的 IR 算法和促进 IQa 方法的发展,作者提出了一个大规模的 IQa 数据集 PIPAL,并针对 GAN 基础的 IR 算法,提出了一些新的基准方法和对空间错位改进的 IQa 网络。
Nov, 2020
本文提出了一种基于深度元学习的无参考图像质量评估指标,通过收集多种失真的图像任务,在元学习的基础上,学习人类评估图像质量时所共享的元知识,以适应未知的失真,进而优化质量先验模型,进行目标无参考图像质量评估,结果表明这种方法优于现有技术,并且所学习的元模型还可轻松推广到真实 - world 应用中。
Apr, 2020