通过多任务模仿学习的表征转移,可以比从零开始学习新任务更加高效地利用样本。本文提供了一个统计保证,表明在使用足够多样的源任务训练表征时,我们确实可以提高目标任务的样本利用效率。我们的理论结果可以轻松扩展到基于现实假设的常用神经网络结构。通过符合我们理论结果的实证分析,我们在四个模拟环境中得出结论:特别是更多地利用源任务的数据可以提高学习新任务的样本利用效率。
Nov, 2023
本文提出了一个评估跨任务表示学习有效性的 H-score 度量方式,可以对在分类问题中从一个任务传递到另一个任务的表示的性能进行评估。使用实际图像数据进行的实验表明,该评价标准不仅与经验传递度量一致,而且在源模型选择和任务转移课程学习等应用中也非常有用。
Dec, 2022
讨论了一般从多个任务中学习数据表示的方法,并在多任务学习和学习到学习的两种情况下对此方法进行了理论上的证明。我们通过线性特征学习的特例对方法进行详细说明,并建立起多任务表示学习在独立任务学习上的理论优势的条件,特别是针对重要的半空间学习的例子,我们推导出了多任务表示学习在独立任务学习上的优势随样本数量、任务数量和固有数据维度的函数关系,其他潜在应用包括在再现核希尔伯特空间和多层深度网络中进行多任务特征学习。
May, 2015
我们研究了在多任务强化学习中共享表示的益处,以实现深度神经网络的有效使用。我们利用从不同任务中学习、分享共同特性的假设,有助于推广知识,从而比学习单个任务更有效地进行特征提取。通过在广泛使用的强化学习基准上进行实证评估,我们提出了三种强化学习算法的多任务扩展,并证明了在样本效率和性能方面相较于单任务具有显著改进。
Jan, 2024
介绍了一种新的多任务算法用于强化学习任务,该算法显着减少了探索的每个任务的样本复杂性,并保证不会出现负转移,与对应的单任务算法相比具有可比性。
Sep, 2013
研究使用表征学习的 few-shot 学习,使用 $T$ 个源任务,通过学习表征来减少目标任务的样本复杂度,重点关注具有良好公共表征的情况,并提出使用表征学习的快速速率。
Feb, 2020
本文研究了多任务学习的方法,使用共享特征表示所有任务,并研究了线性和 ReLU 激活模型的理论。通过实验证明了任务数据的对齐有助于多任务训练和转移学习,特别地,我们的对齐方法比 BERT-LARGE 在 5 个 GLUE 任务上平均提高了 2.35%的得分,并设计了基于 SVD 的任务重新加权方案来提高多任务训练在多标签图像数据集上的鲁棒性。
May, 2020
本文提出了一种新的方法,通过信息论方法来估计监督分类任务的难度和可转移性,无需模型和训练,而是通过探索训练标签统计数据作为随机变量,考虑从源任务到目标任务的两个标签分配之间的条件熵,表明此值与传输模型的损失有关,并测试其在三个大型数据集上的有效性。
Aug, 2019
本研究探讨了强化学习中的表征传递问题,提出了一种基于预训练和生成访问的新方法,可以帮助在源任务中发现一个共享表征来快速收敛到一个接近最优策略的目标任务中。
May, 2022
本文提出了一种新的深度多任务表示学习框架,通过将矩阵分解技术泛化为张量分解,实现了深度网络中的端到端知识共享的自动学习,而不需要用户定义的多任务共享策略。实验证明了我们的深度多任务表示学习方法在提高准确性和减少设计选择方面的有效性。
May, 2016