- ICMLDataFreeShield:无须训练数据的防御对抗攻击
最近对于对抗鲁棒性的研究依赖于丰富的训练数据,然而在现实生活中,由于安全和隐私问题,训练数据往往会被保持私密,而只有预训练权重对公众可见。因此我们对无数据对抗鲁棒性这一关键问题进行了研究,提出了 DataFreeShield 方法从数据生成 - EMNLPPFID: 面向 LLM 的隐私优先推断委托框架
该论文介绍了一种名为 PFID 的新型隐私保护框架,通过分散模型和奇异值分解的方式,解决了 LLM 系统中关键的隐私问题。
- 金币:通过上下文整合理论将大型语言模型置于隐私法规中
介绍了一种名为 GoldCoin 的新型框架,通过将大型语言模型与相关隐私法律结合起来,从而有效评估隐私违规,实验证明 GoldCoin 在识别真实法庭案例中的隐私风险方面明显提高了大型语言模型的能力。
- 扩散模型中的记忆图像共享一个可定位和删除的子空间
大规模的文本到图像扩散模型在从文本输入中生成高质量图像方面表现出色,然而研究表明它们倾向于记忆和复制训练数据,引起了版权侵犯和隐私问题。本文针对扩散模型中的记忆问题,通过剪枝特定子空间的权重提出了一种后处理方法,避免了破坏训练或推理过程,从 - CVPR任何身份的生成去学习
我们提出了一种名为 Generative Unlearning for Any Identity (GUIDE) 的新框架,在人脸等涉及隐私问题的领域中实现了生成性身份去除,并在生成机器去除任务中取得了最先进的性能。
- ONOT:一个高质量的符合 ICAO 标准的合成头像数据集
现在,最先进的基于人工智能的生成模型是解决收集个人信息(例如面部)数据集中的隐私问题和偏见的可行解决方案。本文介绍了 ONOT,一种专门用于生成符合国际民航组织(ICAO)指南规定的面部图像的高质量合成数据集,具有严格控制和多样性的照片图像 - 机器学习对社会的影响:当前趋势和未来影响的分析
机器学习对社会的当前和未来影响进行了综合分析,包括经济影响、道德和隐私问题以及公众对这项技术的看法,调查显示大部分受访者对机器学习概念有一定了解,相信它对社会有益,认为应优先发展和使用机器学习,研究建议进一步探讨机器学习对社会的影响,建立更 - 具有实例混淆的隐私保护语言模型推断
使用 Instance-Obfuscated Inference (IOI) 方法解决自然语言理解任务中的决策隐私问题,并在各种基准任务上评估该方法的性能和隐私保护能力。
- 大语言模型时代的以人为中心的隐私研究
基于大型语言模型的系统,在用户隐私方面存在问题,需要更多关注人类隐私问题的研究,包括设计范例对用户的行为披露、用户心智模型和隐私控制偏好的影响,以及赋予终端用户对个人数据的拥有权的工具设计,在此基础上构建可用、高效、具有隐私友好性质的系统。 - 合作物流问题中关注隐私、具有情绪感知的代理商的信任模型
本文提出了一个信任模型,用于混合环境中人类和无人车协作。我们以一种连贯的方式将情感引入到信任模型中,以实用的方法与当前心理学理论相结合。最具创新性的贡献是隐私问题在情感信任模型的合作决策中的作用。情感和信任都通过 GAMA 智能体平台中的自 - 层级攻击遗忘:通过层级攻击和知识蒸馏实现快速准确的机器遗忘
该研究提出了一种在机器学习中,通过层攻击遗忘和知识蒸馏来解决训练集中的个人数据隐私问题的快速机器遗忘范式,通过大量实验证明了该方法在准确性和全链路遗忘性能上的有效性。
- 大型语言模型中的隐私问题:综述
在大型语言模型中,该研究对隐私问题进行了第一次调查,重点关注对模型进行红队测试以凸显隐私风险、试图将隐私性纳入训练或推理过程、实现从训练模型中高效删除数据以遵守现有隐私法规,并试图缓解版权问题。
- 隐私保护算法方案
基于实例化反事实解释的隐私回溯路径,提供了一种端到端的隐私保护管道,可生成逼真的回溯路径。
- 抗深度伪造换脸的鲁棒身份感知水印
该研究提出了第一个强大的身份感知水印框架,可以主动地进行检测和源追踪来对抗 Deepfake 人脸交换,并在不同数据集和处理设置下展示了最先进的性能。
- EMNLP遗忘您想遗忘的内容:针对 LLMs 的高效遗忘方法
提出了一种高效的取消学习框架,通过引入轻量级的取消学习层并与 transformers 结合,可以在不对整个模型重新训练的情况下有效地更新大型语言模型,以解决用户数据隐私与数据保护法规的问题。实验证明,与现有技术相比,我们提出的方法在分类和 - DISBELIEVE: 客户端模型之间的距离对于有效的本地模型投毒攻击非常关键
利用 Federated Learning 处理共享患者敏感数据相关的隐私问题,提出了一种新的本地模型污染攻击 DISBELIEVE,能够降低目前医学图像分析领域中最先进的鲁棒聚合方法的性能,同时在多类别分类任务中对全局模型的分类性能也有显 - 匿名化语音:评估和设计说话人匿名化技术
该论文讨论了语音用户界面的增长,以及由此带来的语音数据收集和存储问题。研究提出了匿名化语音和度量匿名程度的解决方案,并介绍了评估协议需要考虑的挑战,最后探讨了一种新的攻击方法以逆转匿名化。
- SL: 医学图像分割中的无源域自适应稳定学习
医学图像分析中的深度学习技术通常受到源数据和目标数据之间的领域转移问题的困扰。现有的工作主要集中在无监督域自适应(UDA)上,但在实际应用中,隐私问题更为严重。本研究针对源自由无监督域自适应(Source-Free UDA)的挑战,提出了稳 - 用于基准测试数据隐私算法的多样化社区数据
介绍了一种基于综合数据集的新的逆向算法验证方法。
- 通过近端初始化实现扩散模型的高效成员推断攻击
本文研究了扩散模型在音频生成等任务中的隐私问题,并提出了一种查询式基础的成员推断攻击 (MIA),即近端初始化攻击 (PIA),它利用在 t=0 时初始化的 ε 和预测点得到的 groundtruth 轨迹来推断成员。通过实验结果表明,该方