提出一种终身学习算法,通过维护和完善内部特征表示,使前面学习所得的知识能够迁移并应用于接下来的学习任务中,从而提高样本利用效率,并通过实验证明,与现有的终身学习方法相比具有更高的效率。
Oct, 2021
在这项研究中,我们研究了元学习和多任务学习的框架,探讨了在小样本情况下,通过少量任务和样本,能否学习到有效的共享表示,并利用该表示解决二分类问题。
Dec, 2023
本文考虑多任务表示学习的框架,总结最近的研究进展,指出基于梯度和基于度量的算法在实践中的根本差异并通过新的基于光谱的正则项改进元学习方法进行实验,以实现 few-shot 分类任务。
Oct, 2020
本文通过学习不同任务之间共享的特征表示来实现迁移学习,并提出了对于不同任务的样本复杂性的新的理论保证,讨论了任务的多样性和高斯复杂度的新颖链式规则,并应用于几个现今流行的模型。
Jun, 2020
通过多任务模仿学习的表征转移,可以比从零开始学习新任务更加高效地利用样本。本文提供了一个统计保证,表明在使用足够多样的源任务训练表征时,我们确实可以提高目标任务的样本利用效率。我们的理论结果可以轻松扩展到基于现实假设的常用神经网络结构。通过符合我们理论结果的实证分析,我们在四个模拟环境中得出结论:特别是更多地利用源任务的数据可以提高学习新任务的样本利用效率。
Nov, 2023
本文提出了一种基于主动学习技术的算法,用于估计每个源任务与目标任务的相关性并进行采样,以便更好地利用大数据源任务的力量并克服目标任务样本的稀缺性,并证明了在线性表示类上使用我们的算法可以在相同错误率下节省源任务采样复杂度。同时,作者通过实验结果显示了该方法在真实的计算机视觉数据集上的有效性。
Feb, 2022
本文提出了一种基于 Meta-learning 的多任务线性回归算法,该算法能够通过低维线性表示快速学习多个相关任务,同时将这些知识传递到新的未见过的任务中,并提供了信息论下限,证明了该算法的高效性。
Feb, 2020
本文介绍一种通过学习或有偏移地学习学习者的假设空间的机制,重点解决了在机器学习中如何预先调节学习者假设空间的问题。文章通过采样学习环境的多个类似任务来学习内部表示,证明不同的学习任务可以共享同一个内部表示从而达到更好的泛化效果。文章还展示了使用梯度下降算法来训练神经网络内部表示的有效性。
Nov, 2019
本研究探讨了强化学习中的表征传递问题,提出了一种基于预训练和生成访问的新方法,可以帮助在源任务中发现一个共享表征来快速收敛到一个接近最优策略的目标任务中。
May, 2022
本文研究了多任务表示学习在线性马尔可夫决策过程下的样本复杂度问题,并提出了 “最少激活特征稀缺” 指标,证明了多任务表示学习可以降低样本复杂度的理论依据,并发现自适应采样技术对于保证高样本效率至关重要。
Jun, 2021