提出了一种新的基于对比损失的无监督表示学习框架,并通过利用数据增广方案生成新样本来优化损失函数,实现混合样本的预测任务,以利用软目标进行学习。实验结果表明本方法在单变量和多变量时间序列上的表现优于其他表示学习方法,并展示了它对于临床时间序列的传递学习的好处。
Mar, 2022
本文提出了一种利用视频进行无监督表示学习的方法,采用时序一致性作为监督信号,将表示学习形式化为序列排序任务,通过训练卷积神经网络对打乱的图像序列进行排序,以预测正确的顺序。实验结果表明,我们的方法在行动识别、图像分类和物体检测任务上比状态 - of-the-art 方法效果更好。
Aug, 2017
本文提出了一种端到端可训练的深度学习模型,利用时间信息来利用易于获取的未标记数据,从而解决了视频分割中标签稀缺的问题。实验结果表明,该模型能够显著优于基线方法和逐帧图像分割。
Aug, 2019
该研究探讨了如何将循环神经网络与 Transformers 结合起来,以实现更好的压缩表示和表达能力,以在视觉感知和序列决策任务中提高样本效率和泛化性能。
May, 2022
通过引入简单的正则化技术以及利用类别级别属性注释对神经网络进行特征空间分解,本工作试图弥合深度学习模型与人类学习之间的鸿沟,证明组合表示的价值并展示少量样本即可学习新类别的分类器。
Dec, 2018
本文提出了一种新的时间序列表示学习方法,通过自监督任务的上下文、时间和转换一致性,结合不确定性加权方法,实现了多任务学习和跨领域传递学习,进而在时间序列分类、预测和异常检测等下游任务中取得了更好表现。
Mar, 2023
本文提出了一种基于源输入逐步自适应重编码的 sequence-to-sequence 模型扩展,以此来鼓励解开编码时存在的混淆状态。最终实验结果表明,这个扩展能够提供更好的解释性和推广性。
Oct, 2021
在语义解析中,提出了一个新的解码框架,该框架保留了序列到序列模型的表现力和通用性,同时具有类似词典的对齐和解开信息处理,能够提高模型的组合泛化能力。
Oct, 2020
该研究旨在探讨基于无监督学习的视频数据特征学习,利用自编码器技术和慢特征学习,提出一种更为时空连贯、语义更为相似的度量标准。
Apr, 2015
我们的研究提出了一种创新方法,通过对齐和绑定不同模态的时间序列表示,以引导神经编码器揭示这些多模态特征之间的潜在模式关联,从而解决了由于复杂的特征融合方法和对异质特征的依赖导致的扩展性问题,并在多个应用领域的不同时间序列数据集上验证了该方法的有效性。
Dec, 2023