- 通过提示注入从 ChatGPT 中窃取个人信息
ChatGPT 4 和 4o 易受提示注入攻击的影响,导致攻击者可以查询用户的个人数据,该漏洞可以在不使用任何第三方工具的情况下适用于所有用户。该漏洞的严重性得到 ChatGPT 的内存特性的加剧,使攻击者可以命令 ChatGPT 来监视用 - 基于人工智能的匿名化:在利用机器学习时保护个人数据隐私
人工智能的发展显著改变了人们的生活,但也对隐私和安全构成了重大威胁。因此,通过机器学习算法实现个人信息的智能保护已成为一项重要关注点。本文着重于个人数据隐私保护和匿名化的核心研究目标,通过使用机器学习的差分隐私保护算法,实现个人数据隐私保护 - 大语言模型时代中的被遗忘权:影响、挑战和解决方案
利用大型语言模型开发的软件系统在实施《被遗忘权》方面面临新的挑战,本文探讨了这些挑战并提供了关于如何采取技术解决方案来实现《被遗忘权》的见解,包括机器遗忘、模型编辑和提示工程。
- 重新思考针对深度神经网络的数据可用性攻击
本文介绍了一种优化方法,可提高可用性攻击方法的效果,减少计算时间要求,以解决商业目的的个人数据的非授权使用和私人数据的暗地收集,同时避免了当前许多攻击方法被对抗性训练所削弱的问题。
- 自动化隐私决策 —— 如何把握边界?
本文概述了隐私决策自动化所面临的主要挑战,并提供了一种分类方案,包括现有工作以及解决隐私决策自动化的倡议和提案。
- 基于去中心化人工智能的数据共享协调:集体隐私恢复
通过去中心化人工智能,对数据集体进行自动化协调和规模化,我们在涉及超过 27,000 个数据分享选择的严谨实验中,比较了态度、内在、奖励和协调数据分享方面的不同标准并确定了五种关键的数据分享行为。通过因果推断和聚类分析,我们证明了数据分享协 - TAPAS:用于合成数据的对抗隐私审计工具箱
介绍了一个名为 TAPAS 的攻击工具箱,用于评估广泛场景下的合成数据隐私,并展示了几个例子来说明针对合成数据的隐私威胁。
- 差分隐私的合成文本生成:一个简单实用的方法
本文讨论隐私问题在数据驱动产品和服务中引起的关注,提出了一种利用差分隐私的生成式语言模型的简单、实用和有效方法,以生成有用的合成文本同时缓解隐私问题。经过广泛的实证分析,我们证明了我们的方法产生的合成数据在实用性上与其非私有对应物相当竞争, - ACL文本分类中的隐私泄露问题:一种数据提取方法
对于文本分类模型,从生成型语言模型中提取训练数据的可行性存在争议,提出了一种利用模型评价概率的算法来提取部分文本的缺失标记,以研究文本分类能否不小心记忆到与学习任务无关的训练数据并评估未经同意使用个人数据的审计策略。
- CVPR当差分隐私遇上可解释性:以案例研究为例
本文旨在探究差分隐私训练对神经网络在医学成像上的应用的影响,特别关注在提高隐私性的同时如何保持模型的可解释性。
- 机器反学习:基于 logit 分类器的线性滤波
研究机器遗忘的领域,介绍了针对分类模型(如深度神经网络)中全类别删除请求的线性过滤方法,并在对抗性设置中表现优异。
- MM面向计算社区的隐私研究路线图
该报告旨在通过在未来十年内进行隐私研究,使社会在享受信息技术和数据科学带来的好处的同时,适当控制对隐私的威胁。
- 随机隐私
该论文提出了一种新的隐私保护方法,即 “随机隐私”,通过此方法,用户可以获得数据使用的概率上限的保证,以此来保护用户的个人数据隐私,同时提供更好的服务质量,实现广告投放和用户画像的个性化等个性化服务,通过 web 搜索个性化案例验证其方法的