隐私保护的合成教育数据生成
评估了现有生成模型绘制的合成数据的隐私保护优势,发现与传统的匿名化技术相比,其提供的隐私保护水平无法预测且数据效用低下,并不存在更好的隐私保护与数据效用均衡的解决方案。
Nov, 2020
该研究提出了一种名为 table-GAN 的方法,使用生成对抗网络(GANs)合成伪造表格,用于保证数据匿名性和模型兼容性。实验证明,该方法在隐私和模型兼容性之间取得平衡,同时解决了数据泄露问题。
Jun, 2018
提出一种从原始数据集生成安全合成数据集的方法,基于预训练的深度神经网络(DNN)的批量归一化(BN)层统计信息和随机噪声进行优化来匹配原始数据的层次统计分布。该方法可以用于从头开始训练神经网络来产生合理的分类性能。
Oct, 2022
我们提出了一种综合评估合成数据的方法,该方法包括合成数据质量的三个维度:相似性、实用性和隐私性。通过将这种评估应用于三个不同的学习分析数据集以及三种不同的合成数据生成方法,我们的结果表明合成数据可以在保护隐私的同时保持与真实数据相似的实用性。此外,针对不同学习分析场景中不同的隐私和数据实用性需求,我们提出了定制的合成数据生成建议。该论文不仅提供了合成数据的综合评估,还说明了在学习分析领域中缓解隐私问题的潜力,从而促进了合成数据在学习分析中的更广泛应用,推动了开放科学的良好实践。
Jan, 2024
通过对真实临床记录进行去识别并生成合成临床记录,我们发现合成数据表现出与真实数据相似的隐私问题,从而引发了合成临床记录是否可以成为敏感真实记录更好替代品的进一步研究的问题。
Jan, 2024
本文探讨生成模型产生的合成数据可能成为机器学习领域的主导力量,可以创造更公平的数据、进行数据增强和模拟,尤其是在 ChatGPT 生成的文本方面。然而,在使用合成数据时,社区需要克服许多基本的挑战,其中最重要的是量化我们能够信任的查找或预测的程度。
Apr, 2023
通过开发多步骤的合成数据生成框架并评估其风险效用模型,成功评估了使用该框架生成的数据的质量,展示了开放 - CESP 倡议的技术和概念的可行性。
Oct, 2023
本文讨论隐私问题在数据驱动产品和服务中引起的关注,提出了一种利用差分隐私的生成式语言模型的简单、实用和有效方法,以生成有用的合成文本同时缓解隐私问题。经过广泛的实证分析,我们证明了我们的方法产生的合成数据在实用性上与其非私有对应物相当竞争,同时提供了强大的保护措施以防止潜在的隐私泄漏。
Oct, 2022
研究挑战性合成数据方案的企业部署,重点关注由大量个人高度敏感数据引起的隐私问题,并将挑战系统化为五个主要组别:i) 生成,ii) 基础架构和体系结构,iii) 治理,iv) 合规和规范,v) 采纳。此外,我们讨论了企业可以采用的战略和系统方法,以有效应对这些挑战并通过实现的解决方案建立信任。
Jul, 2023