SecML: Python机器学习安全与可解释性库
介绍了 OpenML,这是一个用于分享和组织详细数据以更有效地工作、更可见和与他人合作解决更困难问题的机器学习研究者的场所,探讨了OpenML与其他网络科学实例的关系以及对机器学习研究、科学家和学生从业者带来的好处。
Jul, 2014
本研究探究了机器学习模型机密性和公共访问之间的紧张关系,针对在线服务(如BigML和Amazon Machine Learning)中的普通模型类,研究了一些简单有效的攻击方法和相应的反攻击策略。
Sep, 2016
InterpetML是一个开源的Python包,可以帮助实践者和研究人员暴露机器学习算法并提供解释能力。该软件包在统一API下公开多种方法,并具有内置的、可扩展的可视化平台,同时还包括可与许多黑盒模型一样准确的可解释的强大的glassbox模型EBM等工具。
Sep, 2019
OpenML-Python 是一个开发用于机器学习的 Python 平台,允许用户在 OpenML 上分享、访问和重现机器学习的数据集、任务和实验,并提供了整合其他 Python 机器学习库的插件机制。
Nov, 2019
本文提出了基于 ECDF 距离度量的主动监测方法,用于监测 ML 系统的行为和操作环境,应用于数据分布漂移检测,研究表明该方法可用于检测 ML 组件的应用环境是否符合安全性要求。
May, 2020
本篇论文介绍了一个名为FedMLSecurity的基准测试,它模拟了联邦学习中的对抗性攻击和相应的防御机制,并证明了其可用于许多机器学习模型和优化器,可以轻松应用于大型语言模型中。
Jun, 2023
以保护隐私和安全的机器学习模型为目标,我们提出了一种基于混合同态加密方案的隐私保护机器学习方法,通过使用混合同态加密构建安全的分类结果学习模型,同时保护输入数据和机器学习模型的隐私。我们通过开发和评估一个基于混合同态加密的隐私保护机器学习应用程序,用于基于敏感心电图数据的心脏疾病分类,证明了我们方法的实际可行性。这种混合同态加密方案的成功整合为相对受限的末端设备上的机器学习提供了一个更安全、更注重隐私的未来展望。
Jan, 2024
探讨隐私保护机器学习(PPML)的兴起及其对各领域的巨大影响,强调在机器学习框架中保护隐私所面临的挑战,讨论当前研究努力,旨在最小化隐私敏感信息和增强数据处理技术,通过应用密码学方法、差分隐私和可信执行环境等隐私保护技术,保护机器学习训练数据防止隐私侵犯,尤其关注PPML在敏感领域中的应用及其在保护机器学习系统隐私与安全方面的关键作用。
Feb, 2024
通过研究揭示了TinyML中的对抗性模型攻击漏洞,发现强大的主机攻击可以转移到嵌入式硬件设备,强调了TinyML中的安全挑战和安全措施的必要性。
Jul, 2024
本研究解决了现有对抗性机器学习工具缺乏全面性和灵活性的问题。我们提出的AdvSecureNet是一款基于PyTorch的工具包,首次支持多GPU环境下的攻击、防御和评估,并提供CLI和API接口,增强了工具包的多样性和可复现性。该工具包的推出将推动对抗性机器学习的研究和应用,具备多种攻击、防御及评估指标。
Sep, 2024