NIMA:神经图像评估
为了更深入地认识审美,本文提出了一种神经审美图像审阅者模型,可以不仅为图像提供审美评分,还能生成解释评分原因的文本描述。通过多任务学习,该模型可以评估审美图像并以端到端的方式产生评论。研究结果表明,该模型在 AVA-Reviews 数据集上具有优异的表现,可以与人类视觉感知相一致。
Feb, 2018
本文提出了一种基于多任务深度模型的自动审美质量评估方法,其中将语义识别任务作为解决自动审美质量评估和语义识别相关问题的关键。该方法基于卷积神经网络,通过一个简单的多任务框架,同时利用美学和语义标签进行监督学习,通过引入任务间关系学习的相关项,进一步提高了审美任务的评估精度。经过对 AVAdataset 和 Photo.netdataset 的实验验证,证明了多任务深度模型在发现有效美学表示方面的重要性,并取得了最先进的结果。
Apr, 2016
本研究提出了一种考虑多个审美属性的多任务卷积神经网络,在预测图像整体审美得分方面具有超越同类方法和接近人类表现的优势,并且相对于文献中现有多任务神经网络,具有更高的计算效率。
May, 2023
本研究旨在学习使用卷积神经网络,应用深度学习技术自动评估照片美学排名,基于深入剖析其有意义的摄影属性与图像内容信息来规范复杂的照片美学评分问题,通过新提出的采样策略,从多个人类评分者分配的美学得分次元数据集中提取信息,提高了算法的一致性与鲁棒性,实验表明,该模型可使美学排名更符合人类评分标准,并成功在现有 AVAdatabase 基准测试中实现了最先进的图像分类性能
Jun, 2016
本文提出了一种基于深度元学习的无参考图像质量评估指标,通过收集多种失真的图像任务,在元学习的基础上,学习人类评估图像质量时所共享的元知识,以适应未知的失真,进而优化质量先验模型,进行目标无参考图像质量评估,结果表明这种方法优于现有技术,并且所学习的元模型还可轻松推广到真实 - world 应用中。
Apr, 2020
本文提出了一种从排名中学习的无参考图像质量评估方法(RankIQA)。采用合成的失真图像来训练 Siamese 网络,以排名的方式对图像质量进行评估,从而实现自动生成无需人工标注。通过微调,将训练有素的 Siamese 网络的知识转移至传统的 CNN,通过一次正向传递可以显著提高效率,并在 TID2013 基准测试中将结果提高了超过 5%。此外,在 LIVE 基准测试中,该方法也优于现有的 NR-IQA 技术,并在全参考 IQA(FR-IQA)方法中甚至超过现有技术,无需使用高质量的参考图像进行推断。
Jul, 2017
提出了一种无参考图像质量评估方法:Multi-dimension Attention Network for no-reference Image Quality Assessment (MANIQA)。该方法在 GAN-based distortion 事件上具有更好的性能,通过使用 ViT 提取特征,提出了 Transposed Attention Block (TAB) 和 Scale Swin Transformer Block (SSTB) 这两种关注机制,使这些模块在多维方面促进图像不同区域的全局和本地交互,最后应用双分支结构来预测图像局部质量得分,并在四个标准数据集上(LIVE、TID2013、CSIQ 和 KADID-10k)表现出比先前最先进的方法更好的结果。
Apr, 2022
利用图像表示和自然语言处理的最新进展,我们提出了一种端到端形式的 Neural-Image-QA 解决方案来回答真实世界图像上的问题,我们面临一个多模态问题,其中语言输出(答案)是基于视觉和自然语言输入(图像和问题)的,我们的方法可以使已有研究成果的表现效果成倍增加,并提供了关于该问题的额外见解,包括研究人类共识的两个新指标并扩展了初始数据集到 DAQUAR-Consensus。
May, 2015
提出了一种基于深度卷积神经网络的多任务自动照片美学评估方法,在预测总体美学评分的同时联合学习了八个美学属性,并通过梯度反向传播可视化方法,展示了学习到的模型所代表的属性的重要图像区域。
Jul, 2017
本文提出了一种基于深度神经网络的图像质量评估方法,通过数据驱动的方式完成特征提取、回归等过程,与现有的图像质量评估方法相比,在全参考和无参考情况下表现都更好,且不依赖手工特征或人眼视觉系统和图像统计学知识。
Dec, 2016