针对动态数字人体的几何感知视频质量评估
在这篇论文中,我们开发了一种基于 Transformer 的新型无参考(NR)方法,用于以多任务方式处理数字人的感知质量评估(DHQA)。具体而言,我们将数字人的前 2D 投影渲染为输入,并采用视觉 Transformer(ViT)进行特征提取。然后,我们设计了一个多任务模块,共同分类数字人的失真类型和预测感知质量水平。实验结果表明,所提出的方法与主观评级具有良好的相关性,并且优于现有的质量评估方法。
Oct, 2023
提出了 SJTU-H3D 数据库,包含 40 个高质量的数字人类参考数据和 1120 个用七种类型的失真生成的标签失真数据,还提出了零样本 DHQA 方法,以确保泛化能力,减轻数据库偏差,并引入了数字人类质量指数(DHQI)来提高性能。
Jul, 2023
本文提出了一种无参考视频质量模型和算法,它可以为广泛采用的 HDR 视频网络提供更好的视频质量评估,在 HDR 和 SDR 内容中均表现出优异的性能。
Apr, 2023
通过自监督对比微调方法,将有标记的标准动态范围(SDR)视频的质量感知特征转移到无标记高动态范围(HDR)视频领域,从而实现对 HDR 视频的精确质量评估,并取得了最先进的性能。
Nov, 2023
本文提出了一种简单有效的 UGC 视频质量评估模型,通过训练端到端的空间特征提取网络直接从视频帧像素中学习感知质量的空间特征表示,并提取运动特征来度量空间特征无法建模的时间相关失真。
Apr, 2022
通过提取 HVS 的视频感知表示,并通过测量其在感知领域中的表示方式的直线程度和紧凑性来量化视频的自然度和内容连续性,我们提出了一种评估视频临时失真的 TPQI 指标,并证明它对任何数据集都有可申请性,即使在评估具有大的时间变化的视频时也有适用性,TPQI 可以实现与空间质量度量相当的性能甚至更加有效的评估。
Jul, 2022
本文通过构建一个首个主观 UGC 直播视频质量数据库并开发一个有效的评估工具来解决 UGC Live VQA 问题,并基于所构建的数据库开发了一个多维 VQA 评估器以从语义、失真和动态方面衡量 UGC 直播视频的视觉质量。实验结果表明,MD-VQA 在我们的 UGC Live VQA 数据库和现有压缩 UGC VQA 数据库上均实现了最先进的性能。
Mar, 2023
视频质量评估的挑战在于解决用户生成内容视频中存在的严重失真导致整体视觉质量下降的问题,提出了 Visual Quality Transformer (VQT) 方法,并通过实验证明了其优于其他方法的性能。
Jul, 2023
该研究着重探讨了无参考视觉质量评估(NR VQA)问题,研究创建了包含 39,000 个失真视频和 117,000 个空时定位视频片段的最大人类感知质量评价数据库,以及两种独特的 NR-VQA 模型,并实现了在不同 UGC 数据集上的最先进性能,具有非常好的实践应用前景。
Nov, 2020
视频质量评估是目前研究的重点领域之一,本研究通过使用卷积神经网络和深度神经网络等机器学习方法,探索了视频质量中的清晰度效应,并在现有视频质量数据库上进行了比较研究。
Apr, 2024