交叉 IQA: 无监督学习图像质量评估
本文提出了一种混合专家方法来进行自动感知图像质量评估,使用 Re-IQA 框架训练两个独立的编码器来学习高级和低级图像特征,并使用得到的图像表示来训练线性回归模型以提高评估准确性。实验表明,深度神经网络在无监督设置下训练可以产生具有感知相关性的表示。
Apr, 2023
无参考图像质量评估中,无监督学习的质量表示具有广泛的扭曲捕捉能力,并通过视觉语言模型提取高层次的图像质量信息,将这两组特征结合训练简单回归器有效预测质量,并展示了这些特征在数据有效和零样本情况下的优越性能。
Dec, 2023
提出了一种新颖的模型,它通过卷积神经网络和 Transformers 中的自我关注机制,从输入图像中提取局部和非局部特征来解决无参考图像质量评估(NR-IQA)任务,同时提供自我一致性作为一个自我监督信号来提高模型的鲁棒性。经过在七个标准 IQA 数据集上的测试,证明了该模型达到了各种数据集上的最先进成果。
Aug, 2021
本文提出了一种从排名中学习的无参考图像质量评估方法(RankIQA)。采用合成的失真图像来训练 Siamese 网络,以排名的方式对图像质量进行评估,从而实现自动生成无需人工标注。通过微调,将训练有素的 Siamese 网络的知识转移至传统的 CNN,通过一次正向传递可以显著提高效率,并在 TID2013 基准测试中将结果提高了超过 5%。此外,在 LIVE 基准测试中,该方法也优于现有的 NR-IQA 技术,并在全参考 IQA(FR-IQA)方法中甚至超过现有技术,无需使用高质量的参考图像进行推断。
Jul, 2017
在这篇论文中,我们提出了一种基于监督对比学习与 Transformer 的图像质量评估模型 SaTQA,该模型通过 SCL 在大规模合成数据集上进行训练,从而提取出具有各种失真类型和水平的图像退化特征,并结合了 CNN 的归纳偏置和 Transformer 的长期依赖建模能力来进一步提取图像的失真信息,最终通过融合对比学习学到的退化特征和骨干网络提取的感知失真信息获取最终的失真图像质量得分。实验结果表明,SaTQA 在合成和真实数据集上都优于目前的最先进方法。
Dec, 2023
提出了一种基于非对齐参考图像学习比较性知识的新框架来解决无参考图像质量评估的先天缺陷,并改进了特征提取框架以表达更丰富的质量信息,并在 8 个标准无参考图像质量评估数据集上展现了超越最先进方法的卓越性能。
Dec, 2023
本文介绍了一种基于幻觉引导的质量回归网络来解决无参考图像质量评估问题,其中幻觉引导的参考图像和失真图像的信息会被发送至回归器进行学习,从而实现了有效的质量预测。实验证明该方法明显优于现有的最先进方法。
Apr, 2018
本文提出了一种基于深度元学习的无参考图像质量评估指标,通过收集多种失真的图像任务,在元学习的基础上,学习人类评估图像质量时所共享的元知识,以适应未知的失真,进而优化质量先验模型,进行目标无参考图像质量评估,结果表明这种方法优于现有技术,并且所学习的元模型还可轻松推广到真实 - world 应用中。
Apr, 2020
使用对比学习方法的质量感知特征匹配图像质量评估度量 (QFM-IQM),通过对具有相似语义特征但质量得分不同的图像对进行比较,以自适应地调整上游任务的特征,移除有害特征并通过蒸馏方法提高模型的泛化能力,在 8 个标准 NR-IQA 数据集上实现了优越的性能。
Dec, 2023