本文提出了一个名为 AsymNet 的深度神经网络,并使用此网络解决了一个新的跨领域问题 ——Video2Shop,该问题针对的是将视频中出现的衣服与在线商店中的完全相同的物品进行匹配。AsymNet 采用了很好的方法从视频中提取特征,并使用 LSTM 框架对视频进行序列建模,以捕捉视频中的时间动态。为了准确匹配视频和在线购物图像,AsymNet 利用可重构的深层树结构下的相似性网络来联合建模 LSTM 隐藏状态和图像特征。作者还提出了一种近似训练方法来实现训练的效率,并在大型跨领域数据集上进行了广泛实验,证明了所提出的 AsymNet 的有效性和效率,它优于现有的最先进方法。
Apr, 2018
该研究提出了一个用于在社交媒体上寻找相似服装的系统,该系统使用多个 CNN 检测器定位高级别描述区域并将其分类,最终使用多任务功能中学习到的特征嵌入对每个项目进行比较,并根据距离排名。
Jul, 2019
使用视觉搜索和反向索引的方法,基于多个时尚属性和颜色、图案等视觉特征,构建了一个大规模的时尚商品搜索系统。
Sep, 2016
这份论文提出了一种名为 'Complete the Look' 的新任务,旨在通过场景图像来推荐视觉上兼容的产品,并提出了一种基于多层感知机和注意力机制的方法,实现了对全局和局部的测量,并通过大量实验验证了其性能优于现有替代方案的结果。
Dec, 2018
该研究论文提出了一种通过输入人体姿势,生成高分辨率服装模特佩戴自定义衣服并展示的方法,不仅能够实现衣服风格和姿势的转移,还能够创造出逼真的人体和服装图像
Aug, 2019
本文提出一种使用计算机视觉技术实现服装图像分割的方法,该方法基于经过训练的模型自动检测人体部位,并使用 Mask RCNN 算法对图像中的下装和上装进行检测和划分,取得了较好的效果。
May, 2023
DeepFashion2 是一个多任务的数据集和基准,旨在为四个任务提供衣服检测,姿势估计,分割和检索,“Match R-CNN” 是解决这四个任务的强有力基线。
Jan, 2019
本文提出了四个数据驱动模型用于大规模的视觉推荐系统,这些模型可以有效地利用大量的时尚图片及其丰富的元数据,通过对大规模数据集的深入实验对这些算法进行了分析,并在颜色科学的基础上对其进行了基线,同时展示了从这些实验中学到的关键时尚见解并介绍了一个可以用于未来视觉研究的大规模时尚图像注释数据集(Fashion-136K)。
Jan, 2014
本研究提出了一种新的学习框架,通过使用 Siamese Convolutional Neural Network 从不同品类的物品图像中学习特征转化,进而发掘不同物品之间的兼容性。研究人员使用来自 Amazon.com 的协同购买数据来建立兼容性模型,并引入了一种新的训练数据采样策略,以学习跨品类匹配知识,该研究的实验结果表明,提出的学习框架能够学习关于外观风格的语义信息,并能够生成适合混搭的衣物组合。
Sep, 2015
本文提出了一种半监督学习方法,其中利用大型未标记时尚语料库来在训练期间动态创建假正向和假反向服装,通过提出的一致性规则来确保原始图像和其转换的表示是一致的,实现多属性的学习,在 Polyvore、Polyvore-D 和新建的大规模时装套装数据集上进行了实验,并表示,该方法拥有与完全监督方法相当的预测性能。
Sep, 2021