融合附加信息提高单次学习能力
本研究使用深度神经网络和度量学习的思想,建立了一种学习新概念的框架,从而不需要微调以适应新的类别类型,并在视觉和语言任务中定义了一次性学习问题,实验结果表明,在 Imagenet 数据集上,准确率从 87.6% 提高到 93.2%,在 Omniglot 数据集上,准确率从 88.0% 提高到 93.8%。
Jun, 2016
本文介绍了如何利用 “side information” 来提高学习到的函数模型的泛化能力,其中 “side information” 包括多任务学习、多视角学习和特权信息学习等方法。此外,本文还提出了与这些方法相连通的新的视角,并给出了这些方法在两个监督学习任务中的实验验证。
Nov, 2015
零样本学习中缺乏零样本回归方法,本文提出了一种新颖的方法,将特征和附加信息融合成一个核,以更好地预测未观察到的目标模型。该方法在人工和真实数据集上展现出更好的性能。
Feb, 2024
本研究提出了一种新方法 NOVA,在 BERT 框架下利用辅助信息来提供更好的注意力分布,以便更全面和更好地推荐。在公共和商业数据集上验证,本文提出的方法能够稳定地胜过现有技术。
Mar, 2021
提出了一种适用于小规模数据集和大规模众包数据集的主动学习算法来学习深度神经网络表征模型的 Bayesian 矩阵分解,该算法通过采用顺序批量采样策略与基准算法相比表现出显著的效率提高。
Jun, 2023
该论文提出了一种新的深度神经网络架构 ——SideInfNet,该网络能够有效地将从图像中学习到的特征与从用户注释中提取的结构信息相结合,从而实现半自动语义分割。实验证明,该方法在多个基准数据集上均取得了较好的效果,表明该模型具有广泛适用性和有效性。
Feb, 2020
本研究提出了一种基于深度学习的模型,通过名为 Learnet 的第二个深度神经网络以单个实例学习一个深度模型的参数,该模型可用于一次性学习,并通过学习来学习以最小化一次性分类目标函数。
Jun, 2016
使用视觉原型概念作为侧面信息,通过将深度网络的输入图像映射到原型嵌入空间,实现对交通标志和商标标志等数据集的图像识别性能的提升,并能够有效地应对零样本学习的情景,从而实现对已知和未知类的统一测试以及在这两个数据集上超越某些最新零样本学习方法。
Dec, 2015
通过提出一个新的解决方案,Decoupled Side Information Fusion, 提高了序列推荐中不同侧面信息的建模能力,通过实验验证了该方法在四个真实数据集上的有效性。
Apr, 2022
本研究介绍了 Attentive Independent Mechanisms(AIM)并将其应用于 few-shot learning 和 continual learning 领域,AIM 是一个可以插入到现有深度学习框架中的模块化组件,可以通过学习快速和慢速权重及 DNN 的特征提取和高阶概念学习来解决快速适应新任务和避免忘记旧任务的挑战。实验结果表明,AIM 在 MiniImageNet 和 CIFAR-FS 等数据集上进行 few-shot 学习与 ANML 和 OMLetc 的 continual learning 中都表现出显著优异的能力。
Jul, 2021