从图块到图片(PaQ-2-PiQ):绘制图片质量的感知空间
该研究着重探讨了无参考视觉质量评估(NR VQA)问题,研究创建了包含 39,000 个失真视频和 117,000 个空时定位视频片段的最大人类感知质量评价数据库,以及两种独特的 NR-VQA 模型,并实现了在不同 UGC 数据集上的最先进性能,具有非常好的实践应用前景。
Nov, 2020
为了推进无参考视频质量预测,我们构建了一个大规模的视频质量评估数据库,其中包含由大量用户捕捉的独特内容的 585 个视频,具有各种复杂,真实扭曲的级别。我们通过众包收集了大量的主观视频质量分数,总共有 4776 个独特的参与者参加了本次研究,产生了超过 205000 条意见分数,每个视频平均记录了 240 个人的意见。我们称之为 LIVE-VQC 的新资源的价值是通过在其中进行领先的 NR 视频质量预测器的比较来证明的;这是有史以来在内容数量、捕获设备、畸变类型与畸变组合、研究参与者和记录的主观分数等多个关键维度上进行的最大的视频质量评估研究。
Mar, 2018
无参考图像质量评估中,无监督学习的质量表示具有广泛的扭曲捕捉能力,并通过视觉语言模型提取高层次的图像质量信息,将这两组特征结合训练简单回归器有效预测质量,并展示了这些特征在数据有效和零样本情况下的优越性能。
Dec, 2023
本文提出了一种基于 Transformer 的无参考图像质量评估模型,使用预测的目标误差地图和感知质量令牌进行特征融合,比现有技术表现更好,提高了对真实和合成图像数据库的性能表现。同时,通过感知质量令牌提取的注意力图也符合人类视觉系统的特征。
May, 2023
提出了一种新的概率图像质量表示方法(PQR),用于训练深度 BIQA 模型,该方法不仅可以加速深度模型训练的收敛,而且相对于标量质量得分回归方法,也可以极大地提高可实现的质量预测精度。
Aug, 2017
现代无参考图像质量评估(NR-IQA)模型可以有效量化感知图像质量,在固定测试集上模型预测与人类感知评分之间存在高相关性。然而,在从感知优化的角度比较 NR-IQA 模型方面几乎没有取得进展。本文首次证明 NR-IQA 模型可以被插入到最大后验估计(MAP)框架用于图像增强,通过在可微且双射的扩散隐变量而不是原始像素域中进行梯度运算。不同的 NR-IQA 模型可能导致不同的增强图像,最终需要经过感知测试。这为在合成分析框架内比较 NR-IQA 模型提供了一种新的计算方法。与传统基于相关性的度量方法相比,我们的方法在感知优化的背景下提供了互补的洞察力,用于评估竞争的 NR-IQA 模型的相对优点和缺陷。
Mar, 2024
探索基于 transformer 的全参考图像质量评估模型的性能,并提出了一种基于半监督知识蒸馏的 IQA 方法,使用嘈杂的伪标签数据将全参考教师模型蒸馏到盲学生模型中。在 NTIRE 2022 感知图像质量评估挑战中,我们的方法取得了竞争力的结果。
Apr, 2022
本文首次尝试探索黑盒对抗攻击 NR-IQA 模型,通过最大限度地增加原始和扰动图像的质量评分之间的差异来误导对抗性示例的估计质量评分,针对 NR-IQA 模型开发出一种高效和有效的黑盒攻击方法。广泛实验表明,所有评估的 NR-IQA 模型都对该攻击方法存在漏洞,生成的扰动不可转移,有助于研究不同 IQA 模型的特性。
Feb, 2024
通过提取 HVS 的视频感知表示,并通过测量其在感知领域中的表示方式的直线程度和紧凑性来量化视频的自然度和内容连续性,我们提出了一种评估视频临时失真的 TPQI 指标,并证明它对任何数据集都有可申请性,即使在评估具有大的时间变化的视频时也有适用性,TPQI 可以实现与空间质量度量相当的性能甚至更加有效的评估。
Jul, 2022