Oct, 2023

IBCL:连续学习中任务权衡的零样本模型生成

TL;DR基于不精确贝叶斯连续学习 (IBCL) 提出了一种对付任务权衡偏好的方法,更新了一个知识库并从中获取特定模型用以应对任务权衡偏好,无需额外的训练开销。IBCL 获得的模型具备辨别 Pareto 最优参数的保证,通过标准图像分类和自然语言处理任务的实验证实了这一保证。在统计上,IBCL 平均每个任务的准确率提高最多 23%,峰值每个任务准确率提高最多 15%,同时几乎没有或正向传递。最重要的是,IBCL 将训练开销从每个偏好训练 1 个模型减少到了针对所有偏好最多训练 3 个模型。