- 通过时间组对齐和融合的压缩视频质量提升
本论文提出了一种时序群组对齐和融合网络,通过利用帧之间的长短期相关性来提高压缩视频的质量。该网络包括内部组特征对齐模块、外部组特征融合模块和特征增强模块,通过选择与目标增强帧的时间距离来组成图片组,从而使图片组能够包含邻近帧的长期或短期相关 - 视频质量增强的压缩实现深度结构网络
针对压缩视频的质量增强任务,提出了 Compression-Realize Deep Structural Network(CRDS)方法,利用经典压缩编码器结构和深度网络能力相结合的方式,引入了三种与压缩编解码器中三个主要过程相匹配的归纳 - 基于 3D 时空轨迹的深度伪造视频压缩检测
该研究提出了一种基于 3D 时空轨迹的深度伪造视频检测方法,该方法通过利用鲁棒的 3D 模型构建时空运动特征,整合来自 2D 和 3D 帧的特征细节,以减轻大头部旋转角度或不足的光照对帧内的影响。此外,该方法将面部表情与头部运动分离,并设计 - 基于扩散模型的 HEVC 压缩视频质量增强方法
提出了一种基于扩散模型的视频后处理方法,该方法首先估计压缩视频的特征向量,然后将估计的特征向量作为先验信息,自适应地提高具有不同量化参数的压缩视频的质量。实验证明,所提出的方法在混合数据集上的质量改进结果优于现有方法。
- 超分辨率压缩视频质量评估:基准和质量度量
本研究开发了一个基于不同压缩标准的视频数据集,用于评估 17 种最先进的超分辨率模型的性能,并通过众包对比得出了适用于压缩视频放大的客观质量评估指标。
- CVPR先于视觉感知:一种压缩视频时序句子对齐的有效管道
本研究针对压缩视频展开了时间句子引导的任务,并提出了一种全新的三分支压缩域空时融合框架(TCSF)来提取和聚合低级视觉特征以有效地进行时间句子引导。实验结果表明,TCSF 较其他最先进的方法具有更好的性能,并具有更低的复杂度。
- CVPR利用视频编码知识进行深度视频增强
本文提出了一种新的框架,利用视频压缩的低延迟配置和上下文自适应视频融合方法,提高 BasicVSR ++ 方法的质量,已在 NTIRE22 挑战中得到验证,并在定量指标和视觉质量方面与之前的方法相比均有所提高。
- MM用于压缩视频物体指代分割的多注意力网络
本文提出了在压缩视频数据流上进行指代视频目标分割任务的多关注机制网络和基于查询的跨模态 Transformer 模块,实现了使用单核心直接生成最终分割掩模的复杂后处理过程的目标,结果表明其有效性。
- TapLab:利用压缩领域知识进行语义视频分割的快速框架
本文提出了一个名为 TapLab 的简单有效的框架,通过利用压缩视频中的知识来加速实时语义视频分割。通过使用运动矢量进行快速特征变形,以及使用残差解决因运动矢量引入的噪声,TapLab 将现有技术的冗余计算量减少了 3 到 10 倍,并在可 - 压缩视频中的快速目标检测
该论文提出了使用 Motion aided Memory Network (MMNet) 进行快速目标检测的方法,并取得了较高的检测效果,验证了这种方法在压缩视频上的可行性。
- FAST: 加速压缩视频超分辨率处理的框架
FAST 框架介绍了一种用于加速超分辨率算法的方法,利用视频中的时空相关性,通过代码转移实现自适应处理,并可以在保持 0.2dB 的视觉质量损失的前提下将超分辨率算法的速度提高 15 倍。