一种多模块鲁棒的瞬时稳定性评估方法对抗虚假标签注入网络攻击
我们提出了一个新的弱监督标签设置,即真假标签(TFLs),通过预训练的视觉语言模型(VLMs)生成的 TFLs 可以实现高准确性。我们理论上推导了一种风险一致估计器,以探索和利用 TFLs 的条件概率分布信息。此外,我们提出了一种基于卷积的多模态提示检索(MRP)方法,以弥合 VLMs 的知识与目标学习任务之间的差距。实验结果证明了所提出的 TFL 设置和 MRP 学习方法的有效性。
May, 2024
这篇论文介绍了一种新的无数据硬标签鲁棒性窃取攻击方法,该方法通过查询目标模型的硬标签而无需任何自然数据,实现了对模型准确性和鲁棒性的窃取,实验证明其有效性。
Dec, 2023
提出了一种层次化审计的联邦学习(HiAudit-FL)框架,使用模型审计和参数审计两个阶段来增强学习过程的可靠性和安全性,并通过基于扩散模型的 AI-Enabled 审计选择策略(ASS)和深度强化学习(DRL)框架设计了高效的 DRL-ASS 算法来识别和处理潜在的恶意用户。
Dec, 2023
提出一种用于半监督医疗图像分割的简单而有效的方法 DPMS,重点在于通过数据扰动和模型稳定化生成适当的预测不一致,从而显著提升了 SSMIS 的性能。
Aug, 2023
深度学习模型在各种视觉任务中展现出卓越的性能,但它们常常容易受到测试时的领域转移所影响。为了缓解这些脆弱性,已经开发了测试时训练(TTT)方法,在训练时同时解决了主任务和次要任务,以在测试时作为自监督代理任务。在本文中,我们提出了一种基于多尺度特征图和离散潜在表示之间相互信息最大化的新型无监督 TTT 技术,它可以作为一项辅助聚类任务整合到标准训练中。实验结果表明,在不同的常见测试时适应基准上具有竞争力的分类性能。
Oct, 2023
该研究论文提出了 Meta Self-Refinement (MSR) 框架,用于有效地应对来自弱监督源的噪声标签,从而训练出噪声鲁棒性较强的深度神经网络模型。在八个自然语言处理基准测试中广泛实验,证明 MSR 在所有设置下都能够抵抗噪声,并且在准确率和 F1 分数上优于现有技术最多 11.4% 和 9.26%。
May, 2022
本文提出了一个名为 TSS 的框架,用于证明机器学习算法具有普适的鲁棒性,能够有效地抵御各种对抗性的语义转换和攻击,特别是在图像分类领域中,对于像旋转,高斯模糊等紧密的语义转换表现出了优秀的鲁棒性。
Feb, 2020
创建弹性机器学习系统对于确保生产就绪的机器学习系统并顺利获取用户信任已成为必要。输入数据和模型的质量对数据敏感系统的端到端测试成功具有高度影响。然而,与模型测试相比,输入数据的测试方法缺乏系统性且较少。为了填补这一空白,本文提出了一种基于故障注入技术的输入数据故障注入测试框架(FIUL-Data),该框架测试机器学习模型对多种故意引发的数据故障的弹性。数据变异器探索机器学习系统的脆弱性,针对不同故障注入效果。提出的框架基于三个主要想法设计:变异器不是随机的;在某个时刻应用一个数据变异器;事先优化选定的机器学习模型。本文使用来自分析化学的数据进行了 FIUL-Data 框架的实证评估,包括反义寡核苷酸保留时间测量。经验评估分为两个步骤进行,首先分析选定机器学习模型对数据变异的响应,然后对比彼此。结果显示 FIUL-Data 框架允许评估机器学习模型的弹性。在大多数实验情况下,较大的训练数据集上,机器学习模型表现出更高的弹性,在较小的训练集中梯度提升方法优于支持向量回归。总体而言,均方误差指标在评估模型弹性方面具有较高的敏感性。
Sep, 2023
使用 Transfer Learning(TL)和随机化相结合的 Double-Dip 方法,通过降低过拟合 DNN 对隐私攻击的脆弱性,显著提高非成员的分类准确性,以及减少标签推理攻击的成功率。
Feb, 2024
利用扩散模型内在的生成先验,提出了一种用于训练成员推断的新方法,通过对图像进行连续退化和恢复的比较,判断其是否属于训练样本,并且在准确性和可理解性等方面优于现有方法。
Mar, 2024