本研究提出了一种元攻击方法,通过元学习的方法从以前观察到的攻击模式中学习可推广的先验抽象,并利用这样的先验信息,可以从很少的查询和输出中推断攻击模式,从而显着减少模型查询的数量,而不会牺牲攻击性能。
Jun, 2019
本文研究了神经网络在基于梯度的元学习中的泛化问题,分析了目标景观的各种特性,提出了一种新的正则化方法以增强模型的泛化能力。实验表明,在元训练提供的元解决方案的基础上,通过几步基于梯度的微调适应元训练模型到新任务时,所得到的元测试解决方案变得越来越平坦,损失更低,并且远离元训练解决方案。
Jul, 2019
本文提出了一种新颖的元转移学习(MTL)方法,通过学习每个任务的深度神经网络权重的缩放和移位函数来实现权重的转移,同时引入了硬任务元批处理方案作为有效的学习课程,对三个具有挑战性的基准数据集进行了少样本学习实验,并报告了五类少样本识别任务的最高性能,验证了 MTL 方法的有效性。
Oct, 2019
该文总结了元学习(或学习-学习)领域的现状,旨在通过改进学习算法本身来解决深度学习中包括数据和计算瓶颈在内的传统挑战,并提出了一种更全面的元学习方法分类,并重点介绍了几个应用领域,如少样本学习和强化学习,并讨论了未来研究的未解决的问题和有前景的方向。
Apr, 2020
本论文旨在提供关于Deep Meta-Learning的理论基础以及总结关键的度量、模型和优化技术,同时也指出了性能评估和计算成本等主要挑战。
Oct, 2020
针对系统安全和可信度需要进行深入测试的DNN(DNN指深度神经网络)组件,提出了一种基于深度生成模型算法的有效测试方法,以消除无效的测试并提高测试输入的有效性。
Feb, 2021
通过“purER”框架,我们可以进行数据免费元学习,利用已有的预训练模型进行元学习,并使用伪学习集训练新的元模型以适应新的任务分布。
Mar, 2023
本文提出了问题,并在简单的情境下给出了详细的理论分析,证明了对于超参数化网络,与训练时相比增加测试时的内部迭代次数不能改善性能。
May, 2023
通过概率抽样,研究了五种新的基于抽样的测试技术以及其他三种先进技术,以实现对深度神经网络在运行中准确度的忠实和高置信度估计,从而降低成本。
Mar, 2024
深度神经网络在人工智能领域带来了革命性的进展,但面对分布转移时常常缺乏性能。传统神经网络假设训练和测试数据服从同一分布,然而实际应用中这一假设经常被违反。元学习作为一种有前景的方法,通过获取可传递的知识来快速适应各种任务,从而消除了从头学习每个任务的需求。本文基于特征提取策略和分类器学习方法的新分类法,全面调查了元学习在领域泛化方面的贡献,详细介绍了该领域的基础知识,并提供了关于未来研究方向的实践见解和深入讨论。
Apr, 2024