基于边缘的深度网络对抗式主动学习
本文探究了 DNN 的黑盒攻击方案,使用现有的白盒攻击方法产生的采样样本进行训练替代模型,并提出主动学习策略和多样性准则以优化其表现,实验证明该方法可以将查询数量减少超过 90% 并保持黑盒攻击成功率。
Sep, 2018
使用生成模型沿着一条 1D 线创建新样本,通过请求决策边界上的标注降低了与标注数据样本的交互量,实验表明该方法可嵌入其他活动学习方案,且决策边界上的标注优于数据样本的标注。
Mar, 2017
本文介绍了一种高效的主动学习方法,它结合了敌对再训练技术,可以生成更多的人工标注数据集而不增加标注预算,产生的敌对样本也提供了一种测量模型易受攻击的方式。作者在减小的 CIFAR-10 数据集上对其性能进行了充分评估,得出该方法有效对抗恶意袭击的结论。
Jan, 2021
提出一种新的批次模式主动学习算法 —— 判别式主动学习法(DAL),并将其应用在神经网络和大批次查询的情境中,尝试通过将标记集合和未标记的数据池区分开来作为选择样本的依据来执行主动学习,结果表明我们的方法在中等和大批次查询中与最先进的方法相当,并且在实现简单的同时还可以扩展到除分类任务之外的其他领域,同时,我们的实验还表明在相对较大的批次中,当批量大小较大时,当前现有的最先进方法均不比不确定性采样明显更好,从而推翻了一些最近文献中报道的结果。
Jul, 2019
该研究提出了一种基于最小不一致度量的主动学习方法,通过计算预测标签的最小不一致概率来选择查询无标签数据,实验结果表明该方法在多个数据集和深度架构上均获得了领先的性能。
Jan, 2024
本文研究了基于池化的主动学习方法,提出了一种新的算法,使用神经网络在表征层上的激活空间中的最远优先遍历,从池中查询连续的点,相比于随机抽样和传统的不确定性抽样技术,对 MNIST、CIFAR-10 和 CIFAR-100 三个数据集的样本复杂度都有显著提高。
Nov, 2017