指示性图像检索:将黑盒学习变为灰盒
本文针对深度学习在实例级图像检索方面表现不佳的问题,提出了基于大规模嘈杂地标数据集的清洗方法、改进的 R-MAC 描述符、基于三元组损失的孪生网络,并在 Oxford 5k、Paris 6k 和 Holidays 数据集上,分别报告了 94.7,96.6 和 94.8 的平均精度,并通过产品量化处理可以实现图像表示的高度压缩。
Oct, 2016
该研究提出了一种在深度神经匹配网络上利用外部知识进行响应排序的学习框架,实验证明,该方法在包括商业数据在内的三个信息寻求对话数据集上优于各种基线模型,包括多个深度文本匹配模型和多轮对话响应选择的最新方法。
May, 2018
提出了一种端到端的面部图像检索框架,利用相关反馈逐步提供给目击者,对心理图像进行交互式和迭代式检索,无需额外注释,并进行 exttt {CelebA} 数据集上的实验证明,该模型在最佳设置下的排名百分位数可以达到 99%,可以成为进一步研究的基础。
Jul, 2020
本文提出了一种新方法进行实例级别的图像检索,通过聚合多个基于区域的描述符为每个图像生成全局紧凑的固定长度表示,该方法基于一个特定图像检索任务训练的深度架构,利用排序框架来学习卷积和投影权重,并采用区域建议网络来学习应汇集哪些区域以形成最终的全局描述符。
Apr, 2016
该研究提出了一种基于深度神经网络的 DRMM 模型,旨在解决 ad-hoc retrieval task 中的 relevance matching 问题,经过在 benchmark collections 上的实验,结果表明该模型明显优于一些知名的检索模型和当前最先进的深度匹配模型。
Nov, 2017
本文对深度信息检索模型进行了深入研究,通过对两个不同数据集的实证研究,比较了自动学习特征和手工特征的查询词覆盖率、文档长度、嵌入和鲁棒性等方面的差异,并建立了改进现有深度 IR 模型的指南。同时,我们比较了表示重点模型和交互重点模型这两个不同类别的深度 IR 模型,发现两种类型的深度 IR 模型侧重于不同类别的词汇,包括主题相关词汇和查询相关词汇。
Jul, 2017
本文提出了一种基于深度学习预训练模型的编码表示方法,使用简单的最小二乘和奇异值分解(SVD)解决 Procrustes 问题来构建不同模态之间的语义对齐,并通过对预训练模型进行反证学习和多层感知机改进,实现了在图像和文本交叉检索任务中可比拟于需要昂贵的神经网络训练和微调的高性能。
Apr, 2023
本文提出两个新思想来提高医疗图像搜索性能,采用排名损失函数引导特征提取,将表示学习定制为图像搜索而不是学习类标签,同时引入了隔离学习的概念来增强特征提取的泛化性能,并通过最大的公共数据集实现验证,实验结果与现有技术相比具有更好的表现。
Apr, 2023
本研究探讨了深度学习中中间层所提取的深层特征,并证明了这些特征的性能可能不佳,因为它们是通过最小化经验风险来学习的。针对当前任务与基准数据集的数据分布不同的情况,本研究提出了一种层次稳健优化方法来学习更通用的特征。该方法同时考虑了 example-level 与 concept-level 稳健性,并将问题公式化为带有 Wasserstein 模糊集约束的分布稳健优化问题。本文提出了一种高效的算法,并在标杆数据集上进行了实验,证明了稳健特征的有效性。
Nov, 2019