Sep, 2023

最优遗憾联邦迁移学习在核回归中的应用:美式期权定价

TL;DR我们提出了一种用于联邦迁移学习的最优迭代方案,通过降低所有迭代中生成参数的累积偏差来最小化得到每个数据集所得到的专用参数与模型产生的损失函数之间的偏差。我们针对有限秩核回归的情况,推导出满足后悔最优算法的明确更新公式,并通过利用该算法内的对称性,进一步开发了近乎后悔最优的启发式算法,该算法的计算复杂度比后悔最优算法低O(Np^2)个基本操作,其中p是参数空间的维度。此外,我们还研究了后悔最优算法的对抗鲁棒性,结果表明,通过扰动q个训练对,但不超过ε>0,且对所有训练集有效,无法将后悔最优算法的后悔降低超过O(εqar{N}^{1/2}),其中ar{N}是训练对的总数。为了验证我们的理论结果,我们在美式期权定价的背景下进行了数值实验,并使用了一个随机生成的有限秩核。