元学习中的任务混淆攻击
提出了多任务因果表示学习框架,通过解缠神经模块,学习每个任务的因果关系,从而解决多任务学习中非因果知识的问题,并在 Multi-MNIST、MovieLens、Taskonomy、CityScape 和 NYUv2 数据集上验证了其性能优于现有算法平均 5.5% 的效果。
May, 2022
通过引入多个潜在因素,本研究提出了一种结构因果模型 (meta-SCM),以整合不同的 NLP 任务,并只使用与特定任务相关的因果因素来进行预测,从而在提高零样本能力的同时避免了伪相关性的影响。
Feb, 2024
该研究提出了 MetaMix 和 Channel Shuffle 等两种元学习任务增广方法,以提高元学习的泛化能力。实验结果显示这两种方法都能显著提高元学习在多个数据集上的表现,并且与现有元学习算法兼容。
Jul, 2020
提出了一种简单,可扩展的方法生成多任务学习 (GMTL),用于多任务学习的因果表示学习。该方法改变了传统的多任务推理目标,并增强了对目标转移的鲁棒性,它可以与现有的多任务学习方法一起使用而无需额外的训练。我们的结果表明,应用 GMTL 可以提高属性与 Taskonomy 数据集对于四种不同多任务学习方法的鲁棒性。
Feb, 2022
本文提出了一种基于元学习的训练方式,通过序贯地训练神经网络来缓解深度学习中存在的灾难性遗忘问题。在此基础上,提出了 SeqFOMAML 算法,并在 Omniglot 和 MiniImageNet 上的分类任务数据集上进行了验证。
Sep, 2019
本文提出了一个框架,用于解决神经网络在数据分布不稳定时的忘记问题,该框架结合了元学习和持续学习技术的优点,避免了对任务边界的先验知识,并重点关注了如何更快地恢复性能。在监督学习情境下,我们展示了该框架的应用和效果。
Jun, 2019
本文探讨在高维度输入如图像中元学习的回归任务,提出两项主要贡献:设计两种新的跨类别层次的视觉回归任务,并通过深度学习技术强化元学习算法的泛化能力;在条件神经过程中,添加了功能对比学习(FCL),并通过端到端的训练得到了实验结果,表明先前的工作结果存在误导,应考虑合适的损失函数并增加元训练集的大小。
Mar, 2022
通过信息理论设计的元正则化目标,可以使元学习器在任务训练数据和任务测试数据之间有效地适应,成功地使用来自非相互排斥任务的数据来有效地适应新任务,并在应用场景中大幅优于标准元学习算法。
Dec, 2019
本文提出了一种利用可微贝叶斯变点检测方案的元学习方法,称之为 MOCA,使得元学习算法可以应用于不需要对数据进行离散任务分割的情况,我们在非线性元回归基准测试以及两个元图像分类基准测试中演示了这种方法的实用性。
Dec, 2019