- TabularMark:机器学习中的表格数据水印
使用基于假设检验的水印方案 TabularMark 对表格数据进行水印处理,在保留数据实用性的同时,防止攻击者在攻击的数据集上训练有效的机器学习模型。实验结果表明,TabularMark 在可检测性、非侵入性和鲁棒性方面具有优势。
- ST-DPGAN:一种隐私保护的时空数据生成框架
提出了一种基于图神经网络生成隐私保护的时空数据的模型,利用空间和时间注意力模块以及时空卷积结构实现了高效的差分隐私训练。通过在真实的时空数据集上进行广泛实验验证了该模型的有效性,能够保证数据的隐私性同时保持数据的实用性,由该生成数据训练的预 - 模型无关的保护实用性的生物识别信息匿名化
利用生物识别技术的高风险性及潜在隐私问题,本文提出了一种新颖的数据转换框架,可实现对生物识别数据的匿名化处理,以降低敏感信息泄露的风险并保留下游机器学习分析所需的特征。实验证明了该框架能通过高度抑制敏感信息的方式,同时保持数据的实用性,从而 - 隐私保护的可扩展性:学习分析中全面综合的合成表格数据生成与评估
我们提出了一种综合评估合成数据的方法,该方法包括合成数据质量的三个维度:相似性、实用性和隐私性。通过将这种评估应用于三个不同的学习分析数据集以及三种不同的合成数据生成方法,我们的结果表明合成数据可以在保护隐私的同时保持与真实数据相似的实用性 - 超越特定领域的文本清洗:基于大型语言模型的零射手密封 & 替换
使用大型语言模型,我们提出了一种零偏差文本消毒技术,它能够检测和替换潜在的敏感信息,既保护隐私,又保持文本的连贯性和上下文信息,为下游任务保留数据效用。
- 评估联邦学习中的梯度反演攻击与防御
本文研究了梯度反演攻击对联邦学习安全和隐私保护的威胁。针对已有的攻击和防御方法,我们发现某些强假设下的攻击可以通过放宽假设来削弱强度。我们评估了三种防御机制的效果和性能开销,发现在适当的方法组合下,攻击可以更加有效地被抵抗。总体而言,我们提 - WWWOCT-GAN: 基于神经常微分方程的条件表格生成对抗网络
利用神经常微分方程设计生成器和判别器,用于解决合成表格数据的数据效用问题。
- 深度神经网络修剪的隐私保护学习
本文通过提出一种新的方法,证明神经网络剪枝相当于给隐藏层的激活值加入一定量的差分隐私噪音,进而探讨了神经网络剪枝与差分隐私之间的关系以及其实际应用的可行性与效果,发现在某些情况下,神经网络剪枝可能是比差分隐私更为有效的方法。
- 高效数据扰动用于隐私保护和准确数据流挖掘
本论文提出了一种高效数据流扰动方法(命名为 $ P^2RoCAl $),其数据实用性比现有方法更好,并提供更高的数据重建攻击韧性。
- 基于 VGAN 的图像表征学习方法 用于保护隐私的面部表情识别
本文提出了一种 PPRL-VGAN 模型,可实现面部表情识别和高质量图像生成,并在保护用户隐私和数据实用性方面取得了一定平衡。
- 单边差分隐私
本文介绍了一种新的差分隐私技术 —— 单边差分隐私(OSDP)。与传统的差分隐私技术不同,OSDP 只对敏感信息提供差分隐私的保障,而非敏感信息可以真实地发布,但也避免了排除攻击泄漏敏感信息的情况。实验结果表明,这种方法的数据实用性损失很小 - 大数据和物联网的市场模型与最优定价方案
本研究研究并提出大数据市场模型及优化定价方案,发现该方案适用并可通过该市场模型获得最大利润。
- PrivTree:一种用于分层分解的差分隐私算法
利用差分隐私算法建立高质量的直方图的一项研究提出了 PrivTree 算法,该算法采用分层分解的方法,解决了现有算法存在的限制,并在实验数据上显示出了比现有算法更好的数据可用性。
- 基因组关联研究的隐私保护数据共享
本文探讨了传统的统计方法在处理 GWAS 数据库的机密性保护方面不足,介绍了密码学界最近提出的差分隐私概念,并基于差分隐私的新方法来发布聚合 GWAS 数据,并提出了一个隐私保护的方法来发现全基因组关联,其中涉及极小等位基因频率、卡方值和