图片裁剪的列表视图排名
本研究提出了一种基于序列神经网络和局部排名上下文的深度列表上下文模型,通过对排名结果的特征分布的学习来优化初始的排名列表,实验结果证明该模型在标准的信息检索领域中显著提高了学习排序方法的表现。
Apr, 2018
该论文提出了一种应对分布式多摄像头监控系统中人员再识别任务的新方法,通过建立统一的深度排名框架来解决特征工程和评价设计的问题,并提出了一种有效的深度卷积神经网络来解决相似度得分的相关性,在 VIPeR, CUHK-01 和 CAVIAR4REID 数据集上比传统方法和基于 CNN 的方法表现显著优于所有最先进方法,具有更好的泛化能力。
May, 2015
本研究提出两种技术来改进基于成对排名的多标签图像分类:(1)我们提出了一种新的损失函数,平滑且容易优化;(2)我们将标签决策模块纳入模型,估算每个视觉概念的最优置信阈值。我们在三个大规模数据集(VOC2007、NUS-WIDE 和 MS-COCO)上展示了我们方法的有效性,并取得了文献中报道的最佳结果。
Apr, 2017
该论文提出了一种基于深度学习的图像裁剪方法,利用卷积神经网络和回归网络,仅需一个锚定区域即可直接输出最终结果,从而实现高精度和高效率。
Jul, 2019
通过结合卷积结构和近似 top-k 排名目标,利用深度神经网络的特征,改进了多标签图像注释,并在 NUS-WIDE 数据集上实现了比传统视觉特征高大约 10% 的性能表现,提出了一种有效的方法。
Dec, 2013
本研究提出了一个弱监督美学感知强化学习 (A2-RL) 框架,将美学图像裁剪作为一个序列决策过程,并开发了一种美学感知奖励函数,使用 actor-critic 结构以端到端方式训练智能体,实验结果表明,我们的方法在使用较少的候选窗口和时间的情况下实现了状态 - of-the-art 的性能。
Sep, 2017
提出了 ContrastiveCrop,一种用于 Siamese 表示学习的更好对比对的生成方法,该方法采用全无监督方式提出了基于语义的目标定位策略并进一步设计了中心抑制采样来扩大裁剪区域的方差,成功提高了自我监督学习中 SimCLR,MoCo,BYOL,SimSiam 等方法的分类准确率,同时在基于 ImageNet-1K 预训练的下游检测和分割任务上取得了优异的结果。
Feb, 2022
本篇论文提出了一种基于深度排名模型、部分卷积神经网络以及自适应距离边缘损失函数相结合的方法,可以在多个数据集上有效地解决视频监控中的人员重识别问题,并且相较于现有的人员重识别方法具有更好的性能表现。
Jul, 2017
我们提出了一种新颖的优化框架,它可以基于用户描述信息和美学目标对给定图像进行裁剪,通过重新利用预训练的图像标注和美学任务网络直接优化裁剪参数,并通过多种策略实现了优化目标的实现,定量与定性实验证明我们的框架可以产生符合预期的用户描述和审美标准的裁剪图像。
Jan, 2022
提出了一个端到端的深度卷积神经网络,可以同时定位和排序相对视觉属性,在仅使用弱监督成对图像比较的情况下进行学习。不同于之前的方法,我们的网络联合学习了特征、定位和排序。我们的定位模块发现属性最有信息量的图像区域,这个区域被排序模块用来学习属性的排序模型。我们的端到端框架也显著加速了处理速度,比之前的方法快得多。我们在各种相对属性数据集上展示了最先进的排序结果,我们的定位结果清楚地表明了我们的网络学习了有意义的图像块。
Aug, 2016