- 差分隐私联邦学习:系统性综述
我们的研究针对差分隐私的联邦学习进行了系统的概述和分类,提出了一种新的基于差分隐私和联邦场景定义和保证的分类方法,并探讨了差分隐私在联邦学习场景中的应用,为隐私保护的联邦学习提供了有价值的洞见和未来研究方向。
- 没有隐私损失的拜占庭容错安全聚合的联邦学习
ByITFL 是第一个具备全信息论隐私的拜占庭容错方案,通过拉格朗日码计算、可验证的秘密共享和重新随机化步骤,实现了分布式的、保护隐私的计算。
- 从算法到硬件:深度神经网络高效安全部署综述
深度神经网络(DNNs)在许多人工智能(AI)任务中被广泛使用,为了解决其部署带来的巨大的内存、能量和计算成本挑战,研究人员开发了各种模型压缩技术,最近还有越来越多的研究关注定制化 DNN 硬件加速器以更好地利用模型压缩技术,此外,保护安全 - 自动编程:大型语言模型与更多
自动编程的流行增加了对代码质量、安全性、程序修复和程序员责任等相关问题的关注,这些问题是组织在决定使用自动生成代码时所关心的关键问题,本文研究了自动编程的各个方面,并讨论了软件工程的进展,如程序修复和分析可以实现自动编程,并对未来的编程环境 - CloudFort: 通过空间划分和集成预测提高 3D 点云分类的鲁棒性对抗后门攻击
CloudFort 是一种新颖的防御机制,通过空间分割和集成预测技术,有效缓解了后门触发的影响,增强了三维点云分类器对后门攻击的鲁棒性,同时不影响其在干净数据上的准确性,从而为实际应用中基于点云的系统的可信性和可靠性迈出了重要的一步。
- 基于联邦学习的无线流量预测中的攻击
通过引入一种新的虚假流量注入(FTI)攻击和一种名为全局局部不一致检测(GLID)的防御机制,对分布式的无线流量预测系统中的安全性进行了充分的实验评估,并在现实世界的无线流量数据集上取得了显著优于现有基线的效果。
- 安全和隐私产品融入
我们探讨了确保来自不同人口背景的用户的安全和隐私的挑战,并提出了一种威胁建模方法,以识别产品安全和隐私的潜在风险和对策。我们讨论了影响用户实现高水平安全和隐私的各种因素,包括低收入人口、连接质量差、共用设备使用、ML 公平性等。我们展示了一 - 大型语言模型的个性化无线联邦学习
基于大型语言模型的联邦学习方法,在无线网络中解决了隐私和安全保护机制不足的问题,并通过两种个性化无线联邦微调方法实现了低通信开销。
- 基于 Blowfish 算法的实时场景下增强安全性的人工智能问题
通过使用混合加密,本研究涵盖了云基础设施中的所有安全问题和泄漏。
- 划分而非劫持:在划分学习中防止特征空间劫持攻击
结合拆分学习和函数秘密共享的混合方法可以确保客户数据的隐私安全,并提高机器学习流程的效率。通过给激活图添加随机掩码,利用函数秘密共享生成股份,从而实现在前向和后向传播过程中,服务器无法从激活图重构客户的原始数据。此方法成功降低了隐私泄露,并 - FLEX:灵活的联邦学习框架
人工智能中的隐私和安全在数据处理中变得至关重要,联邦学习作为一种保护数据隐私的方法在这篇论文中被引入,而 FLEX 则是一个灵活的联邦学习框架,旨在提供最大的灵活性,以进行联邦学习研究实验,并在特定实现领域提供库。
- AI 支持 DevSecOps:现状与未来机遇
本文分析了 99 篇研究论文,从 2017 年到 2023 年,致力于 AI 和 DevSecOps 交叉领域,提出了应用于 DevOps 的 AI 驱动安全技术的综合研究现状,以及提高软件开发流程中的安全性、可靠性和效率的研究机会。
- 通过零信任架构增强无人机安全:先进的深度学习和可解释的人工智能分析
该研究强调了在无人机领域中实施零信任架构(ZTA)以增强安全性的必要性,通过使用深度学习框架中的射频(RF)信号进行无人机的精确识别,结合可解释的人工智能工具(如 SHAP 和 LIME),确保无人机的分类可验证和可理解,从而提高了安全性。
- 消费者物联网流量调查:安全与隐私
消费物联网的安全和隐私旨在对物联网的流量分析进行调查,从中了解安全和隐私的新特征、最新进展以及待解决的挑战,并总结了物联网流量分析过程中的新特征。此外,还详细介绍了基于五个应用目标的现有研究,包括设备指纹识别、用户活动推断、恶意流量分析、安 - IJCAI隐私保护的端到端口语言理解
本研究提出了一种新颖的跨任务保护用户隐私的口语理解模型,通过利用隐藏层分离技术,将用户信息仅分布在特定部分的隐藏层中并移除其他类型信息,从而实现隐私安全的隐藏层。为了在效率和隐私之间取得良好的平衡,引入了一种新的模型预训练机制,即联合对抗训 - Python 模糊测试可信机器学习框架
确保机器学习框架的安全性和可靠性对于构建可信的基于人工智能的系统至关重要。我们提出了一个 Python 项目的动态分析流水线,使用 Sydr-Fuzz 工具集来实现模糊测试、语料库精简、崩溃分析和覆盖率收集,在 GitLab CI 中实现流 - 保护大型语言模型:威胁、漏洞和负责任的做法
对大型语言模型(LLMs)的安全与隐私问题进行了全面的研究,从安全与隐私问题、对抗性攻击的脆弱性、滥用影响、缓解策略以及当前策略的局限性等五个主题角度进行深入探讨,并提出了未来研究的有前景的方向,以增强 LLMs 的安全和风险管理。
- CVPR预训练视觉模型的持续遗忘
通过引入 GS-LoRA 方法,实现对预训练模型中特定信息的持续遗忘,以解决在保持剩余知识的同时高效删除不需要的知识的关键挑战。
- 神经技术认知安全问题的数学框架
近年来,神经技术的迅速发展在神经技术与安全领域形成了重要的交叉点。植入式设备、非侵入式监测和非侵入式疗法都可能侵犯个体认知的隐私和自主权。越来越多的科学家和医生呼吁解决这个问题,即认知安全,但实际应用的努力有限。阻碍科学和工程努力解决认知安 - 使用混沌 Henon 映射和分割掩码的选择性加密多维医学图像
以用户为中心的设计和资源优化在任何技术或创新中都应该是关键。该方案创新于医学图像存储和安全领域,通过分割、存储和检索三个主要模块,通过对医学图像进行加密和分割,实现了对关键部分的安全存储,从而提高检索速度。