机器学习模型过于记忆
本研究探究了机器学习模型机密性和公共访问之间的紧张关系,针对在线服务(如 BigML 和 Amazon Machine Learning)中的普通模型类,研究了一些简单有效的攻击方法和相应的反攻击策略。
Sep, 2016
本研究旨在探讨现代机器学习模型是否必须要记忆所有训练样本中的信息才能够准确学习,对于这个问题,我们提出了两个预测问题的简单变体并进行了探究,结果表明,即使高维度的样本信息熵远高于样本数且其中的大部分信息与任务无关,每个准确的训练算法必须在其预测模型中编码所有有关大元素集合的信息,而这也不受算法或学习模型类别的影响。
Dec, 2020
在这项研究中,我们统一了关于机器学习中记忆化的定义和观点,讨论了它们与模型泛化的相互作用以及这些现象对数据隐私的影响,并系统化了允许从各种机器学习学习设置中检测记忆化发生或量化记忆化的方法。最后,我们讨论了记忆化在隐私攻击、差分隐私和对抗性行为者等方面的背景。
Nov, 2023
本文着重于研究机器学习分类器中存在的信息泄露问题,通过构建元分类器并用其来入侵其他分类器,发现可以从中推断出对训练集的有用信息,这种信息泄露可能被利用于盗取竞争对手的商业机密,潜在侵犯知识产权。
Jun, 2013
通过对图像分类的神经网络进行实验,我们发现神经网络即使在训练数据中只出现了一次,也不经意地会记住独特的特征。我们开发了一个得分来估计模型对独特特征的敏感性,结果表明神经网络对于训练数据中罕见的隐私信息都具有风险。
Feb, 2022
该研究通过评估训练数据的统计特征对模型中的记忆编码产生的影响,重现了重复次数对记忆序列遗忘概率的对数标度关系,并发现即使没有后续接触,经过多次训练的数据仍然可以在训练过程中被揭示。由于这些潜在的记忆序列可能隐藏在模型的最终检查点上,这对数据隐私具有挑战性。为此,我们开发了一种通过考虑交叉熵损失来揭示这些潜在记忆序列的诊断测试。
Jun, 2024
大型语言模型(LLMs)在隐私方面存在关注,因为它们会记忆训练数据(包括个人可识别信息(PII)如电子邮件和电话号码),并在推理过程中泄露。现有工作关注度较低,本研究表明精调模型不仅会泄露其训练数据,还会泄露在预训练阶段记忆的预训练数据(和 PII)。通过精调模型来进行预训练数据的遗忘和泄露使新的数据点变得容易被提取,给使用 LLMs 提供服务的公司带来了重大的隐私和法律问题。我们希望本研究能够在人工智能和法律界引发跨学科讨论,并针对这些问题制定相应的政策。
Jul, 2023
本文旨在对机器学习模型中 “遗忘特定数据” 的概念、场景、方法和应用进行综合性探讨,并为研究人员和从业人员提供包括设计标准和算法在内的全面资源,以帮助创新隐私技术和提醒相关研究领域存在的问题。
Sep, 2022