人类直觉作为防御属性推断的手段
该研究提出了一种新的隐私保护技术,通过使用干扰攻击来保护用户的隐私信息免遭基于机器学习分类器的信息泄露攻击,该方法有效降低了用户公开信息的隐私损失。
May, 2018
我们提出了一种新的隐私攻击来推断在线社交网络用户的属性,这些攻击利用看似无害的用户信息来推断目标用户的缺失属性,我们的攻击在社交朋友和行为记录两个方面都有所得,比以往的攻击更为有效,有严重的网络隐私保护问题。
Jun, 2016
本篇论文探讨了机器学习算法在敏感数据应用时对隐私的威胁,分析了过拟合和影响因素对攻击者从训练数据中提取信息的能力的影响,并研究了成员推断和属性推断之间的联系。
Sep, 2017
本文研究了在使用机器学习模型提供服务时出现的数据隐私问题,尤其是会员推理攻击和属性推理攻击,并发现基于成员推理攻击的模型很少容易受到属性推理攻击,但是基于近似属性推理的攻击可以获取接近真实属性的结果。
Mar, 2021
本文聚焦于模型反演攻击,介绍了一种新的基于置信度分数的攻击方法和仅需要模型预测标签的攻击方法,并将攻击算法应用在决策树和深度神经网络上,评估了不同数据集在不同身份特征条件下的漏洞性。
Jan, 2022
本文通过分析社交网站(如 Facebook)上可被利用用以预测个人特征的信息,提出了一种能够提供对某些统计模型中对用户的推断的透明度以及控制来隐瞒个人信息以控制信息泄露的方法,并利用该方法检查用户是否能够真正实现这一隐私保护的目标。在应用于大量真实用户 Facebook 数据的过程中,我们发现仅需隐藏用户 “Facebook Likes” 数据的一小部分即可抑制有关其个人特征的推断,然而,我们也发现企业可以通过改变用户模型来增加隐瞒的难度。
Jun, 2016
本文提出了一种通过量化筛选医学图像数据集属性的风险,在确定性和效用之间进行分解的技术,以识别深度学习算法中可能导致偏见的细微因素,并通过通过真实反事实的比较性能证明了其有效性和灵敏度,最后将该方法应用于一种流行的皮肤病变数据集的自然属性中,并演示了其成功。
Apr, 2023
人工智能的发展显著改变了人们的生活,但也对隐私和安全构成了重大威胁。因此,通过机器学习算法实现个人信息的智能保护已成为一项重要关注点。本文着重于个人数据隐私保护和匿名化的核心研究目标,通过使用机器学习的差分隐私保护算法,实现个人数据隐私保护和检测,并解决与隐私和个人数据保护相关的现有挑战,提出改进建议,分析影响数据集的因素以实现及时的个人数据隐私检测和保护。
Feb, 2024
研究信息泄露的问题,提出了利用针对性误导生成来强化机器学习模型对推理攻击的鲁棒性,即通过插入新数据来稀释原数据,使用多个分类器的决策边界进行概率标注。
Feb, 2022
本文提出了一种名为 Adv4SG 的新型文本领域对抗性攻击方法,旨在通过一系列词汇扰动来保护社交媒体上的个人属性隐私,有效地降低基于自然语言处理技术的属性推断攻击的影响。
Jun, 2023