Nov, 2023

多任务模仿学习中表示转移的统计保证

TL;DR通过多任务模仿学习的表征转移,可以比从零开始学习新任务更加高效地利用样本。本文提供了一个统计保证,表明在使用足够多样的源任务训练表征时,我们确实可以提高目标任务的样本利用效率。我们的理论结果可以轻松扩展到基于现实假设的常用神经网络结构。通过符合我们理论结果的实证分析,我们在四个模拟环境中得出结论:特别是更多地利用源任务的数据可以提高学习新任务的样本利用效率。