Feb, 2024

主动少样本微调

TL;DR我们研究了大型神经网络在下游任务中的主动少样本微调问题。我们证明了少样本微调是传统主动学习、转导式主动学习的一种泛化,并提出了信息导向的转导学习(ITL)方法,该方法通过适应性采样来最大化对指定下游任务的信息获取。在一般正则性假设下,我们证明了 ITL 收敛于可从可访问数据中获得的最小不确定性。据我们所知,我们是第一个推导出这种泛化界限的研究者,这对于主动学习可能具有独立的利益。我们将 ITL 应用于大型神经网络的少样本微调,并展示 ITL 相比现有技术取得了显著改进。