- 有机还是扩散型:我们能区分人类艺术和 AI 生成的图像吗?
生成对抗网络图像与人类创作之间的区分是个具有挑战性的问题,本论文通过使用监督学习的分类器以及艺术家使用其艺术技巧的方法,对现代生成模型的性能进行了研究,并分析了自动化检测器和人类团队的结合可以提供最佳的准确性和鲁棒性。
- 关于深度生物特征表示的对抗反演
本研究针对深度神经网络嵌入式特征表示的反演问题进行了研究,发现攻击者可以通过利用现成的深度神经网络模型和公共数据集,仅通过获取到的特征表示和攻击者的先验知识,模拟原始模型的行为,并构建成功鉴别的生物特征重建模型。
- 对抗性特征选择抵御逃避攻击
该研究探讨了特征选择在对抗性环境下的安全性问题,并提出了一种面向对抗攻击的特征选择模型,以提高分类器的安全性。实验结果表明,该模型在垃圾邮件和恶意软件检测等应用场景具有较好的效果。
- ICML在嘈杂环境下分析视觉背景对多模态语音识别的效用
研究多模态语音识别技术中使用的可视化辅助信息对模型抗噪声能力的影响,并发现当前的整合方法在噪声环境下不能提高模型的鲁棒性,需要更好的可视化场景适应技术来解决这一问题。
- 通过辅助知识对齐的对抗性神经网络反演
本文研究了深度学习技术的隐私风险和在对抗性环境下的模型反演问题,并提出了设计两种技术来训练反演模型,从部分预测中准确地反演目标模型。
- 特征选择是否安全抵御针对训练数据的攻击?
本文研究对抗性环境下的机器学习,特别是针对恶意攻击者注入有害数据时,特征选择会否带来益处或副作用的问题,并提供了一种框架来研究流行的特征选择方法的鲁棒性,结果表明特征选择方法在受到攻击下会受到较大影响,强调了需要特定的应对措施。
- 深度 k 近邻:朝着自信、可解释和鲁棒的深度学习发展
本研究针对深度学习在对抗性环境下的鲁棒性和预测不可解释性等问题,通过将 k-NN 算法与深度学习结合,提出了一种名为 DkNN 的混合分类器,它可以为输入数据提供信心估计和人类可解释的预测解释。实验证明,DkNN 算法可以准确识别模型外部的 - 模式分类器受攻击的安全评估
本文提出了一种基于经验的分类器安全性评估框架,旨在扩展基于经典设计方法的模式分类理论和设计,以应对对策略性破坏。结果表明,安全性评估可以更完整地了解在对抗环境中分类器的行为,从而导致更好的设计选择。
- 在对抗性环境中的分布式统计机器学习:拜占庭梯度下降
本文研究在对抗性场景下,如何以拜占庭容错的方式进行分布式统计机器学习,以解决联邦学习中受到威胁的问题。我们提出了一种基于梯度汇聚的方法,在容忍拜占庭故障的同时,实现了参数的准确估计,算法的时间复杂度为 $O ((Nd/m) logN)$,通 - 可扩展对抗分类的通用重训练框架
提出了第一个系统性的通用的重新训练框架,可以在对抗性攻击的情况下提高任意学习算法的鲁棒性,并且是先前方法中更广泛的对抗模型的一类;该框架能够最小化对抗风险的最优上界,同时扩展该结果以考虑逃避攻击的近似值,从而显著提高抵抗逃避攻击的鲁棒性,而