- 图像到文本的逻辑越狱:你的想象力可以帮助你任何事情
使用大型视觉语言模型(VLMs)生成有深度和细致度的回复是非常成功的,然而,结合视觉输入后,新的安全隐患出现了,恶意攻击者可以利用多种模态来达到他们的目的。本文聚焦于通过有意义的图像来产生针对性文本,揭示了当前 VLMs 在图像转文本方面存 - 水印反事实解释
提出了一个模型不可知水印框架,用于探测未经授权的模型提取攻击,并保证所嵌入的水印不损害生成的对抗结果解释的质量。
- STIQ: 保护量子神经网络的训练和推理免受不可信云的威胁
该研究论文介绍了一种新颖的基于集成的策略,名为 STIQ,用于在云环境中保护 Quantum Neural Networks(QNNs)的安全性,通过同时训练两个不同的 QNNs,并对它们的输出进行混淆,从而有效地掩盖了单个模型的准确度和损 - ICMLUPAM:统一提示攻击文本到图像生成模型,同时针对文本过滤器和视觉检测器
提出了一种名为 UPAM 的新颖框架,通过攻击角度研究 T2I 模型的鲁棒性,该框架旨在欺骗 T2I 模型中的文本和视觉防御机制,利用梯度优化实现更高的效果和效率,并引入了一种支持梯度优化的 Sphere-Probing Learning( - MoE-FFD: 面向广义和参数高效的人脸伪造检测的专家混合
该研究提出了一种基于变形器的面部伪造检测方法,利用变形器的表达能力和卷积神经网络的本地先验,同时提取全局和局部的伪造线索,从而实现了一种参数高效的训练方案。在实验证明该方法具有减少参数开销且达到了最先进的面部伪造检测性能。
- 保障天空:具有 AoI 感知的 IRS 辅助安全多无人机系统和高效任务卸载
本研究论文讨论了无人机网络数据新鲜度和安全性的挑战,引入了基于变换增强深度强化学习方法的框架以解决窃听和干扰问题,并通过与现有算法的对比分析展示了其在无人机网络管理方面的优越性和前景。
- 无线网络的强韧联邦学习:基于信道估计的演示
联邦学习提供了一种隐私保护的协作方法,用于无线网络中的模型训练,其中通道估计是一种具有潜力的应用。本文分析了联邦学习在通道估计中的安全漏洞,并提出了相应的解决方案,通过模拟进行了验证。
- 探索聊天模型的后门漏洞
最近的研究表明,大型语言模型(LLMs)容易受到称为后门攻击的安全威胁。本研究揭示了在聊天模型上实现的一种新颖的后门攻击方法,通过在不同轮次的用户输入中分发多个触发场景,并只在历史对话中出现了所有触发场景时激活后门,从而实现了高攻击成功率。
- 通过区块链和大型语言模型增强自主代理的信任:一种实现问责和可解释性的架构
自主代理、安全关切、解释、问责制、基于 ROS 的移动机器人的可信度与安全性解决方案及其性能评估。
- 隐私意识智能体中的群体决策
如何在个人的隐私需求和安全顾虑中实现个体之间的信息交流以彼此学习?通过采用严格的统计担保,基于差分隐私(DP)控制信息泄露,我们使得保护个人隐私和实现高效社会学习成为可能。我们的研究结果揭示了在质量、学习准确性、通信成本和个体隐私保护水平之 - 跨模态干扰协同攻击用于人物再识别
本研究针对跨模态人物再识别(ReID)模型的安全性进行了首次探索,并提出了一种专门针对跨模态 ReID 的通用扰动攻击。该攻击利用不同模态数据的梯度优化扰动,从而破坏鉴别器并加强模态之间的差异,通过在 RegDB 和 SYSU 两个广泛使用 - 大型语言模型中的通用漏洞:上下文学习反向攻击
通过毒化示例和提示,ICLAttack 攻击方法能够操纵大型语言模型的行为,而不需要额外的微调,从而提高了攻击方法的自然隐蔽性。
- 增强车辆入场和停车管理:用于效率和安全的深度学习解决方案
通过使用最先进的深度学习模型,我们自动化了车辆入口和停车的过程,确保车辆和人员已在组织中注册,提供高效的车辆检测、精确的识别、简化的记录保留和优化的停车位分配,增强了便利性、准确性和安全性。
- 物理世界中针对可见 - 红外交叉模态侦测器的两阶段优化统一对抗贴片攻击
该研究提出了一种名为 TOUAP 的双阶段优化统一对抗贴片,旨在对实际环境中的可见 - 红外跨模态探测器进行攻击。通过广泛的数字和物理环境实验,我们验证了所提方法的有效性和鲁棒性,推荐其广泛关注。
- 大型语言模型的去中心化训练鲁棒性探索
通过探索去中心化训练的强壮性、去中心化基础模型训练与联邦学习的根本区别以及确保强壮且高效的去中心化训练框架所需的基本组件,本文旨在强调在大型语言模型的去中心化训练上解决安全问题的重要性。
- 使用联邦学习训练语义沟通系统
通过利用用户数据来解决隐私问题,降低信息传输量并减少网络流量,我们在联邦学习设置中探索语义通信,并提出了一种称为 FedLol 的机制来聚合来自客户端的全局模型,与基线方法相比,详尽的模拟结果证明了我们提出的技术的有效性。
- 人工智能机器人的安全考虑:当前方法、挑战和机会的调查
本文针对 AI - 机器人系统中的安全问题进行了综合调查和分类,考虑了攻击面、伦理和法律问题以及人机交互安全等领域,旨在提供对这些领域的整体理解以增强 AI - 机器人系统的安全性。
- 基于非参数子空间监测的对抗性客户端检测在联邦物联网中的应用
提出了一种称为 FedRR 的有效的非参数方法,该方法利用联邦学习生成的参数更新的低秩特征来解决对抗攻击问题,并能准确检测对抗性客户端和控制虚警率。
- 医学基础模型易受有针对性的错误信息攻击
通过有针对性地操纵模型权重的 1.1%,我们能够向大规模语言模型中注入不正确的生物医学事实,并使其错误信息在模型的输出中传播,同时在其他生物医学任务上的性能保持不变。这种特殊的易受攻击性引发了在医疗保健环境中应用大规模语言模型时严重的安全与 - 基于图像背景的单一深度学习人脸变形攻击检测的影响
本研究调查了输入图像的对齐设置对深度学习人脸合成检测性能的影响,分析了人脸轮廓和图像背景之间的相互关系,并提出了人脸合成检测的最佳对齐条件。