光学物理可不复制函数对多值逻辑机器学习攻击表现出强大的抵抗力,需要大约 1000 个 CRPs 来预测响应位比随机情况更好。
Mar, 2024
我们研究了非线性波混沌非晶硅 (A-Si) 腔体作为物理不可克隆函数 (PUF) 的应用。通过应用线性回归、k 最近邻、决策树集成法 (随机森林和梯度提升树) 以及深度神经网络 (DNNs) 等算法对集成了 A-Si 光子 PUF 的机器学习攻击进行了研究。我们发现 DNNs 在所有研究的算法中表现最好,但仍无法完全破解 A-Si PUF 的安全性,我们通过私有信息度量对其进行了量化。此外,发现 A-Si PUF 的机器学习抵抗能力与其非线性响应的强度直接相关。
Feb, 2024
探索了主动学习与被动学习过程中不同推理程序的应用,针对不平衡数据和 HLT 任务中用成本加权的 SVM 进行了研究,提出了一种基于总体不平衡性估计而非标记的训练数据的方法来解决数据不平衡的问题。
Sep, 2014
本文介绍了一种高效的主动学习方法,它结合了敌对再训练技术,可以生成更多的人工标注数据集而不增加标注预算,产生的敌对样本也提供了一种测量模型易受攻击的方式。作者在减小的 CIFAR-10 数据集上对其性能进行了充分评估,得出该方法有效对抗恶意袭击的结论。
Jan, 2021
本文研究了主动学习方法用于在有限计算预算下高效选择训练样本的能力,同时保留与多个代理极限状态相关联的准确性。研究结果表明,可以通过在统一的主动学习方案中依次针对指定的多个限制状态函数来实现有效的均衡的计算预算管理。
Feb, 2023
本文探究了 DNN 的黑盒攻击方案,使用现有的白盒攻击方法产生的采样样本进行训练替代模型,并提出主动学习策略和多样性准则以优化其表现,实验证明该方法可以将查询数量减少超过 90% 并保持黑盒攻击成功率。
Sep, 2018
物理不可克隆函数(PUFs)作为物联网设备的有前途的安全原语,根据物理特征提供设备指纹。尽管 PUFs 的强项,但它们容易受到机器学习(ML)攻击的威胁,包括常规攻击和基于可靠性的攻击。我们发现,大多数选举与高重复次数提供了有效防御措施,可以抵御现有的基于可靠性的 ML 攻击方法。然而,虽然大多数选举减少但不能消除不可靠性,因此我们探索是否存在可以捕捉高度可靠但并非完美可靠的 PUFs 的低不可靠性的新攻击方法,推动了新的可靠性表示和新的表示启用攻击方法的发展,该方法实验证明能破解具有高重复次数的大多数选举增强的 PUFs。
May, 2024
该研究提出了一种针对深度神经网络的主动学习技术,使用一个单独的网络对样本进行评分选择,提高模型对错标记的容忍度,同时通过自监督和多任务学习等方法缓解数据不足的问题。
Oct, 2020
基于现有观察,我们提出了一个名为 PCB 的新型主动学习框架,对预训练视觉语言模型(VLMs)进行自适应,以解决标签获取成本高的问题,并在七个真实数据集上实验证明,在性能上超越了传统的主动学习和随机取样方法。
Nov, 2023
本文探讨使用预训练模型进行主动学习任务中的歧义消除,发现预训练模型使用基于不确定性的主动学习时所需标注数量降低至非预训练模型的五分之一,并且可以通过在预训练的表示空间中选择具有消除歧义的特征属性的数据样本来获得这种性能提升。
Apr, 2022