迁移学习中目标数据的价值
本研究开发了一个统计极小化框架以表征在回归中通过线性和单隐藏层神经网络模型进行的迁移学习的基本限制,并提取出源数据和目标数据的标记数以及适当的相似性概念作为算法所能实现的目标泛化误差的下限。我们的下限提供了迁移学习的益处和限制的新见解,并通过各种实验验证了我们的理论发现。
Jun, 2020
本研究探讨了在对话领域中,基于顺序迁移学习的多少目标任务训练数据会对模型性能和数据效率产生何种影响。研究结果表明,在许多情况下,与没有迁移学习的相同模型相比,目标任务的训练数据大小对顺序迁移学习的表现几乎没有影响。这一出人意料的结果可能是灾难性遗忘效应的影响,进一步的工作需要研究如何避免这种遗忘。
Oct, 2022
我们提出了新的极小极大结果,用于简洁地捕捉协变量偏移下源标记数据和目标标记数据之间的相对收益。我们展示了目标标记的收益由一个传输指数 $\gamma$ 控制,这个指数编码了 Q 在局部相对于 P 的奇异性,并且允许了在之前的研究中似乎不可能进行的情况。实际上,我们的新的极小极大分析显示了一个连续的区域,从目标标记几乎没有收益的情况到目标标记显著提高分类的情况。然后,我们展示了最近提出的半监督程序可以扩展到适应未知的 $\gamma$,因此只在有效时才请求标签,同时实现最小极大传输速率。
Mar, 2018
通过实验在 ImageNet22k 和 Oxford Flowers 数据集上,探究神经网络层的学习率、数据集的图片与标签参数对转移学习的影响,优化神经网络的学习效率,实现图像分类任务的高准确度。
Jul, 2018
本文提出了一种新颖的信息论方法,以改善基于半监督学习的转移学习中深度神经网络的传递性,特别是在源数据集和目标数据集之间存在分歧的情况下,通过引入 Mutual Information 和 Lautum Information 来 应用于目标数据集的正则化项
Jun, 2023
本文提出了一种新的多源传递学习方法,它结合了源目标相似性和不同可靠性源之间的关系,并提出了一个综合的主动传递学习框架,包括分布匹配和不确定性采样,在合成和真实数据集上进行了广泛的实验,表明其在多项基准测试中优于其他现有模型。
Jul, 2018
研究传输学习中不同源数据对目标任务的影响,提出了负传输的正式定义,并通过对抗网络设计了一种过滤无关源数据的技术,用于解决负传输问题,在实验中该方法能够显著提高基线方法的性能并避免负面影响。
Nov, 2018
稀缺的异常数据是学习准确的异常检测决策规则的一个关键障碍。虽然迁移学习方法在异常检测中取得了最近的经验成功,但关于从源异常检测任务向目标任务中传递知识的条件和方式的基本理解仍不清楚。本研究采用 Neyman-Pearson 分类的传统框架,假设可以访问一些相关的但不完美的异常数据,并给出了关于该问题的信息理论限制,在这些限制下,我们验证了自适应程序在原则上可以实现,即无需关于源和目标异常分布差异的先验信息。
Oct, 2023
本文提出了一种高效的源价值评估框架 SEAL-Shap,基于 Shapley 值方法,能够量化在基于传输学习中对于目标变量(如域 / 语言)的可用性,实验和综合分析表明,我们的框架不仅在选择有用的传输源方面很有效,而且源值与直觉的源目标相似性相匹配。
Apr, 2021