用于无参考和全参考图像质量评估的深度神经网络
本文提出了一种从排名中学习的无参考图像质量评估方法(RankIQA)。采用合成的失真图像来训练 Siamese 网络,以排名的方式对图像质量进行评估,从而实现自动生成无需人工标注。通过微调,将训练有素的 Siamese 网络的知识转移至传统的 CNN,通过一次正向传递可以显著提高效率,并在 TID2013 基准测试中将结果提高了超过 5%。此外,在 LIVE 基准测试中,该方法也优于现有的 NR-IQA 技术,并在全参考 IQA(FR-IQA)方法中甚至超过现有技术,无需使用高质量的参考图像进行推断。
Jul, 2017
本文提出了一种基于深度元学习的无参考图像质量评估指标,通过收集多种失真的图像任务,在元学习的基础上,学习人类评估图像质量时所共享的元知识,以适应未知的失真,进而优化质量先验模型,进行目标无参考图像质量评估,结果表明这种方法优于现有技术,并且所学习的元模型还可轻松推广到真实 - world 应用中。
Apr, 2020
使用对比学习方法的质量感知特征匹配图像质量评估度量 (QFM-IQM),通过对具有相似语义特征但质量得分不同的图像对进行比较,以自适应地调整上游任务的特征,移除有害特征并通过蒸馏方法提高模型的泛化能力,在 8 个标准 NR-IQA 数据集上实现了优越的性能。
Dec, 2023
提出了一种基于非对齐参考图像学习比较性知识的新框架来解决无参考图像质量评估的先天缺陷,并改进了特征提取框架以表达更丰富的质量信息,并在 8 个标准无参考图像质量评估数据集上展现了超越最先进方法的卓越性能。
Dec, 2023
提出了一种新颖的模型,它通过卷积神经网络和 Transformers 中的自我关注机制,从输入图像中提取局部和非局部特征来解决无参考图像质量评估(NR-IQA)任务,同时提供自我一致性作为一个自我监督信号来提高模型的鲁棒性。经过在七个标准 IQA 数据集上的测试,证明了该模型达到了各种数据集上的最先进成果。
Aug, 2021
我们提出了一种顶部向下的方法,利用高层语义指导图像质量评估网络集中在具有语义重要性的局部失真区域,命名为 TOPIQ。我们的方法涉及设计一种启发式的粗到细网络(CFANet),它利用多尺度特征并以自上而下的方式逐步传播多级语义信息到低级表示。该方法的一个关键组成部分是我们提出的跨尺度注意力机制,该机制通过高层特征引导计算低层特征的注意力图。CFANet 可用于全参考(FR)和无参考(NR)图像质量评估,并且在大多数公开基准测试中相对于基于视觉变换器的现有方法取得了更好或有竞争力的性能。
Aug, 2023
无参考图像质量评估中,无监督学习的质量表示具有广泛的扭曲捕捉能力,并通过视觉语言模型提取高层次的图像质量信息,将这两组特征结合训练简单回归器有效预测质量,并展示了这些特征在数据有效和零样本情况下的优越性能。
Dec, 2023