Torchattacks:一个用于 PyTorch 的对抗攻击库
DeepRobust 是一个用于 PyTorch 的对抗学习库,包含图像领域中超过 10 个攻击算法和 8 个防御算法,以及图领域中的 9 个攻击算法和 4 个防御算法,并支持多种深度学习架构。
May, 2020
advertorch 是一个用于对抗鲁棒性研究的工具箱,它包含多种攻击、防御和鲁棒训练方法的实现,并构建在 PyTorch 之上,利用动态计算图的优势提供简洁高效的参考实现。
Feb, 2019
本篇论文介绍了一种名为 TextAttack 的 Python 框架,用于在自然语言处理中进行敌对攻击、数据增强和对抗性训练,通过 TextAttack 的模块化设计,研究人员可以轻松构建来自新颖和现有组件的攻击。该框架实现了 16 种从文献中学来的敌对攻击,并支持各种模型和数据集,包括 BERT 和其他变压器,并提供使用对抗攻击的组件来提高模型的准确性和鲁棒性的数据增强和对抗训练模块。
Apr, 2020
TextAttack 是一种开源的 Python 工具包,用于 NLP 中的对抗攻击、对抗训练和数据增强。它可以帮助研究人员和开发人员测试和研究 NLP 模型的弱点,并解决如何支持来自不同深度学习框架的模型和尽可能多的数据集这些常见问题。
Oct, 2020
CodeAttack 是一个基于代码结构的黑盒攻击模型,检测了最先进的预训练编程语言模型对特定于代码的对抗攻击的脆弱性,并成功地在不同编程语言的多个代码 - 代码和代码 - NL 任务中实现了最佳性能下降。
May, 2022
本篇论文提出了一个基于开源的文本对抗攻击工具包 OpenAttack,该工具包有其独特的优势,在支持所有攻击类型、多语言和并行处理方面表现突出。它包含 15 种典型的攻击模型,覆盖了所有攻击类型,高度包容性的模块化设计不仅支持现有攻击模型的快速利用,还能实现巨大的灵活性和可扩展性。OpenAttack 工具包广泛应用于攻击模型的比较和评估、模型的鲁棒性测试、辅助开发新的攻击模型和敌对训练等领域。
Sep, 2020
Adversarial Robustness Toolbox 是一个 Python 库,旨在帮助开发者和研究人员保卫机器学习模型,使其更加安全可靠,包括对付针对模型的对抗样本的防御工具、攻击模块以及针对模型鲁棒性的验证方法和硬化方法等。
Jul, 2018
这篇技术报告介绍了 CleverHans 软件库,它提供标准化的对抗样本构建技术和对抗训练的参考实现,可以用于开发更加健壮的机器学习模型,并提供标准化的基准来评估模型在对抗环境下的性能。
Oct, 2016