野外视频品质评估
在计算机视觉中,我们提出了一种用于自动评估野外采集视频质量的混合数据集训练策略,并探索了人类视觉系统的内容依赖性和时间记忆效应。实验结果表明,该模型在相对质量、感知质量和主观质量预测方面具有卓越性能,与现有最先进的模型相比,提高了 VQA 性能的成功率。
Nov, 2020
本文提出了一种模型基础的迁移学习方法,旨在将知识从图像质量评估(IQA)数据库和大规模的行为识别中传输到目标视频质量评估(VQA)数据库。该方法使用混合的列表排序损失函数进行训练,并在六个数据库上进行广泛的实验以验证其有效性。
Aug, 2021
本文讨论了在各种因素的干扰下,如何对自然视频的视频质量进行评估,构建了 Maxwell 数据库,并提出了 MaxVQA,一种基于 Vision-Language 模型的视频质量评估方法。
May, 2023
通过提取 HVS 的视频感知表示,并通过测量其在感知领域中的表示方式的直线程度和紧凑性来量化视频的自然度和内容连续性,我们提出了一种评估视频临时失真的 TPQI 指标,并证明它对任何数据集都有可申请性,即使在评估具有大的时间变化的视频时也有适用性,TPQI 可以实现与空间质量度量相当的性能甚至更加有效的评估。
Jul, 2022
我们介绍了一个新的数据集 KonVid-150k,提出了一种新的高效的 VQA 方法(MLSP-VQA),与现有的深度学习方法和基于手工特征的方法相比,它在标准性能指标方面表现得最好,能够应对不同级别的标签噪声和数据集大小,并在跨数据集上设置了新的准确度记录。
Dec, 2019
为了推进无参考视频质量预测,我们构建了一个大规模的视频质量评估数据库,其中包含由大量用户捕捉的独特内容的 585 个视频,具有各种复杂,真实扭曲的级别。我们通过众包收集了大量的主观视频质量分数,总共有 4776 个独特的参与者参加了本次研究,产生了超过 205000 条意见分数,每个视频平均记录了 240 个人的意见。我们称之为 LIVE-VQC 的新资源的价值是通过在其中进行领先的 NR 视频质量预测器的比较来证明的;这是有史以来在内容数量、捕获设备、畸变类型与畸变组合、研究参与者和记录的主观分数等多个关键维度上进行的最大的视频质量评估研究。
Mar, 2018
非参考视频质量评估中,通过引入经过多个图像质量评估数据集预训练的增强空间感知模块和轻量级的时域融合模块,本研究实现了使用 Swin Transformer V2 作为本地级别空间特征提取器,并通过一系列 Transformer 层融合这些多阶段表示。此外,还利用时域 Transformer 在视频中进行时空特征融合。为了适应不同比特率的压缩视频,我们采用粗到精的对比策略,以增强模型区分来自不同比特率视频的特征的能力。这是一篇扩展版的一页摘要。
Jan, 2024
基于 Depicted Image Quality Assessment in the Wild (DepictQA-Wild) 方法构建了一个多功能的图像质量评估任务范式,包括评估和比较任务,从而构建了一个全面、大规模且高质量的数据集 DQ-495K,结果显示 DepictQA-Wild 在失真识别、即时评分和推理任务中明显优于传统基于分数的方法、之前的基于 Vision Language Models 的图像质量评估模型和专有的 GPT-4V。
May, 2024
通过在视频质量评估领域进行广泛的评估,该论文提出了一种新的基于融合的视频质量评估模型 VIDEVAL,有效平衡了 VQA 性能和效率,并在考虑了更少的统计特征(即 60 个统计特征)的情况下取得了最先进的性能。
May, 2020
提出了 WILDQA 数据集,包含视频问答(Video QA)和视频证据选择(Video Evidence Selection)两项任务,以在户外环境下录制的视频为主,对该数据集进行了广泛的基线测试和评估。
Sep, 2022