本文提出了一种新颖的协议,用于安全的(拜占庭容错)分散式训练,强调通信效率。
Jun, 2021
本文提出了一种新的聚合规则 Bulyan,可以有效地保护分布式随机梯度下降算法免受对抗攻击,缩小攻击者留下的空间,并提高算法的收敛性能。
Feb, 2018
本文提出了一种针对联邦学习中后门攻击的新方法:设计一种联邦修剪方法以消除网络中的冗余神经元并调整模型的极端权重值,在 Fashion-MNIST 和 CIFAR-10 等广泛使用的数据集上进行实验证明,该方法可以将平均攻击成功率从 99.7%降低到 1.9%,并只损失 5.5%的测试准确率。
Oct, 2020
本文论述了联邦学习的安全问题,指出任何参与者都可以在联邦学习中引入隐藏的后门功能,进而设计了基于替换模型和泛化约束的攻击方式。这种攻击方法可以在短时间内使全局模型对后门任务达到 100%的准确率,并可通过对抗损失函数规避检测方法。
Jul, 2018
本文研究联邦学习中的后门攻击及防御,探讨了如何在 EMNIST 数据集上实现防御策略,结论表明采用范数削弱和差分隐私能够有效减轻后门攻击带来的影响,同时开放代码以期鼓励更多研究者参与其中。
Nov, 2019
本文通过在服务器端注入后门触发器,对分割学习中的后门攻击进行了新型研究,研究结果表明,尽管使用了强的模式和注入方法,但分割学习对于这种污染攻击是高度强大和抗性强的。
Feb, 2023
在联邦学习中,我们提出了一种利用攻击者对未来其他客户端的行为,实现后门快速生效并且持续存在的攻击方法,该攻击方法适用于图像分类、下一个单词预测和情感分析等应用。
Oct, 2022
FedTruth 是一种针对 FL 中的模型污染问题的鲁棒防御方法,通过动态聚合权重估计全局模型更新,考虑了所有良性客户的贡献,并在实证研究中证明了其对拜占庭攻击和后门攻击的毒化更新的影响有很好的缓解效果。
Nov, 2023
该研究提出了采用自适应误导的方法抵御深度神经网络模型盗窃攻击,并针对现有所有模型盗窃攻击均使用 Out-Of-Distribution 输入进行了阐述,提出选择性错误预测的方法以显著降低攻击者克隆模型的准确率,同时最小化对良性用户准确率的影响,这种防御具有更好的安全性和准确度平衡,并且计算开销最小。
本文从控制理论角度研究了在线学习中攻击者可以利用教师 - 学生设置扰动数据标签来操纵学习动态的情境,通过考虑不同的攻击策略并获取简单线性学习者的稳态的分析结果得出,当攻击强度超过关键阈值时,学习者准确度会出现不连续转变的结论,并利用真实数据对具有复杂架构的学习器进行了实证攻击,证实了理论分析中的洞见,表明贪婪攻击特别是在数据流程以小批量形式时可以非常有效。
May, 2023