无参考图像质量评估中,无监督学习的质量表示具有广泛的扭曲捕捉能力,并通过视觉语言模型提取高层次的图像质量信息,将这两组特征结合训练简单回归器有效预测质量,并展示了这些特征在数据有效和零样本情况下的优越性能。
Dec, 2023
本文提出了一种针对对比度失真的简单而有效的度量标准,利用结构相似性指数 (SSIM) 、基于直方图的熵和交叉熵等方法综合评估图像质量,进而学习回归模块以预测质量得分。
Apr, 2019
提出了一种基于非对齐参考图像学习比较性知识的新框架来解决无参考图像质量评估的先天缺陷,并改进了特征提取框架以表达更丰富的质量信息,并在 8 个标准无参考图像质量评估数据集上展现了超越最先进方法的卓越性能。
本文提出了一种基于查询的黑盒攻击方法,通过使用多个分数边界和人类视觉系统的特性,使得攻击方法能够有效地测试无参考图像质量评估方法的稳健性。实验证明,该攻击方法优于其他先进方法,并揭示了 NR-IQA 在黑盒攻击下的脆弱性,同时为进一步研究 NR-IQA 的稳健性提供了有力工具。
Jan, 2024
使用对比学习方法的质量感知特征匹配图像质量评估度量 (QFM-IQM),通过对具有相似语义特征但质量得分不同的图像对进行比较,以自适应地调整上游任务的特征,移除有害特征并通过蒸馏方法提高模型的泛化能力,在 8 个标准 NR-IQA 数据集上实现了优越的性能。
本文提出了一种基于深度神经网络的图像质量评估方法,通过数据驱动的方式完成特征提取、回归等过程,与现有的图像质量评估方法相比,在全参考和无参考情况下表现都更好,且不依赖手工特征或人眼视觉系统和图像统计学知识。
Dec, 2016
本文提出了一种基于深度元学习的无参考图像质量评估指标,通过收集多种失真的图像任务,在元学习的基础上,学习人类评估图像质量时所共享的元知识,以适应未知的失真,进而优化质量先验模型,进行目标无参考图像质量评估,结果表明这种方法优于现有技术,并且所学习的元模型还可轻松推广到真实 - world 应用中。
Apr, 2020
本文首次尝试探索黑盒对抗攻击 NR-IQA 模型,通过最大限度地增加原始和扰动图像的质量评分之间的差异来误导对抗性示例的估计质量评分,针对 NR-IQA 模型开发出一种高效和有效的黑盒攻击方法。广泛实验表明,所有评估的 NR-IQA 模型都对该攻击方法存在漏洞,生成的扰动不可转移,有助于研究不同 IQA 模型的特性。
Feb, 2024
提出了一种基于 Vision Transformer (ViT) 模型的无参考图像质量评估 (NR-IQA) 方法 Cross-IQA,可以从无标签图像数据中学习图像质量特征,并利用预训练的编码器进行线性回归模型的微调,实现了对图像的低频降级信息(如颜色变化、模糊等)的先进性能评估。
May, 2024
本文提出了一种从排名中学习的无参考图像质量评估方法(RankIQA)。采用合成的失真图像来训练 Siamese 网络,以排名的方式对图像质量进行评估,从而实现自动生成无需人工标注。通过微调,将训练有素的 Siamese 网络的知识转移至传统的 CNN,通过一次正向传递可以显著提高效率,并在 TID2013 基准测试中将结果提高了超过 5%。此外,在 LIVE 基准测试中,该方法也优于现有的 NR-IQA 技术,并在全参考 IQA(FR-IQA)方法中甚至超过现有技术,无需使用高质量的参考图像进行推断。
Jul, 2017