关键词contrastive representation learning
搜索结果 - 32
- 虚拟增强支持对比学习句子表示
通过 VaSCL 提出了一种虚拟增强支持的对比学习方法, 解决了在自然语言处理中由于自然语言的离散性而无法运用通用规则进行数据增强, 从而获得了无监督句子表示学习的最新最佳表现。
- ICML对比损失和监督损失之间的替代间隔
本研究针对之前的理论研究所存在的两个缺点建立了一种新的下限与上限模型,证明了 contrastive loss 可以作为下游 loss 的替代目标函数,同时也提示了更大的 negative sample size 可以提高下游分类,这在合成 - 自监督对比跨模态表示学习用于口语问答
本文提出了基于自监督和对比表示学习的新型语音问答培训方案,采用多元增广策略以及时间对齐注意来更有效地指导生成模型,实现最佳答案预测解决方案,在三个 SQA 基准测试上取得了最新成果。
- 基于对比表示学习的盲目图像超分辨率
设计了一种名为 CRL-SR 的网络进行盲超分辨率重建,可以有效应对多模式、空间变量和未知分布的图像降质,其应用了对比度表示学习和对比度特征强化两种策略,并在实验中验证了其在超分辨率重建上的优越性。
- ICML用于对比表示学习的分解互信息估计
提出分解估计互信息 (Decomposed Estimation of Mutual Information, DEMI) 方法,在视觉领域和对话生成方面获得更好的表示表现,该方法通过将视图分解为逐渐更具信息的子视图来估计 MI,同时应用 - 利用物体级对比学习来调整预训练以进行检测
通过选择性搜索提出边界框,引入物体层次表征,结合 FPN 等所需模块的预训练神经网络,并配备物体检测属性,该文提出的选择性物体对比学习(SoCo)方法在物体检测领域取得了最先进的转移学习结果。
- 使用相对预测编码的自监督表示学习
本文介绍了相对预测编码(RPC),一种新的对比表示学习目标,保持了训练稳定性,小批量大小敏感性和下游任务性能之间的良好平衡。RPC 的成功关键在于两个方面。首先,RPC 引入了相对参数来调整目标,使其具有界限性和低方差。第二,RPC 不包含 - ICLR通过对比鉴别器强化增强训练 GANs
本研究提出了 ContraD 方法,将对比性表示学习方案融入生成对抗网络鉴别器中,使得生成器以更强的数据增强方式工作而不会增加训练不稳定性,并且在对比学习中也能受益。实验结果表明,GANs with ContraD 在 FID 和 IS 方 - 如何在神经网络中表示部分 - 整体层次结构
本文提出一种表示方法,使用 GLOM 虚拟系统将多个研究领域的进展结合,包括变压器、神经场、对比表示学习、蒸馏和胶囊。GLOM 的想法是使用相同向量的端点表示解析树中的节点,从而在图像中生成不同结构的 part-whole 层次结构,可显著 - ICLRi-Mix:一种领域无关的对比表示学习策略
本文介绍一种名为 i-Mix 的简单而有效的域不可知正则化策略,用于改进对比表示学习,并验证了该策略在图像、语音和表格数据等不同领域中的有效性。
- ICML通过对抗性对比最优输运进行表示学习
本文提出了一种通过优化转移距离来学习捕捉数据时间空间关系的紧凑(低维)表示,与此同时通过 Wasserstein GANs 和分类器连接的新框架产生对比学习的负分布,结果在人类动作识别任务中表现良好。
- ICML通过超球面上的对准和均一性理解对比表示学习
文章证明了反差编码的损失函数在无限时刻能够最优化归一化特征空间的相似度与均匀分布,并通过实验优化这两个特征的评估,在视觉和语言数据上显著提高效果。