- IDT:双任务对抗攻击用于隐私保护
本研究使用对抗攻击技术改变文本以欺骗隐私分类器,同时保持针对其他任务的分类器预测不变,提出了 IDT 方法,分析辅助及可解释模型的预测结果,以确定对于隐私任务需要改变的词汇和对于其他任务需要保留的关键词汇,实验证明 IDT 在保护隐私的同时 - 隐私保护的人口过程强化学习
我们考虑了强化学习算法中的隐私保护问题,该问题涉及人群过程,这是一个实际但研究很少的设置,例如在大规模个体之间进行流行病控制。我们通过 Pufferfish 隐私分析澄清了相关数据在人群进程中的差分隐私(DP)的贝叶斯语义,并提供了一种元算 - ACL通过对语言模型中的序列遗忘进行近似优化参数保护隐私
我们提出了一种名为 “POP” 的新型遗忘方法,通过对参数应用最佳梯度更新,从预训练的语言模型中有效地遗忘目标令牌序列,实现隐私保护,具有出色的遗忘后保留性能,优于现有技术水平。
- 通过量化的 LoRA 技术促进联邦学习的数据和模型隐私保护
在联邦学习的背景下,我们引入一种方法来保护数据和模型的隐私,只需在训练过程中分发模型参数的量化版本。该方法结合了量化策略和 LoRA,显著降低了联邦学习中的通信成本,并且确保了数据和模型的隐私保护,同时提高了中央模型的泛化能力和资源利用效率 - PrivacyRestore: 大型语言模型中的隐私保护推断:通过隐私去除和恢复
本文提出了 PrivacyRestore 来保护 LLM 推理过程中用户输入的隐私信息,通过激活控制和隐私恢复技术实现,实验结果表明 PrivacyRestore 能在保护隐私信息的同时保持良好的性能和推理效率。
- 基于 Huber 损失的用户级差分隐私均值估计方法
在分布式系统中,用户整体样本的隐私保护是很重要的。我们提出了基于 Huber loss 最小化的方法来进行用户级差分隐私下的均值估计,通过自适应调整 Huber loss 的连接点来处理不平衡的用户,避免了剪辑操作,大大减少了误差。通过理论 - 用于城市街景图像的多尺度语义先验特征引导深度神经网络
这篇论文介绍了一种深度神经网络(DNN),多尺度语义先验特征引导图像修复网络(MFN),用于修补街景图像,以实现隐私保护并为城市应用生成可靠场景。
- 个性化数字学习环境的分析、建模和设计
本研究分析、建模和开发了一个创新的数字学习环境 (DLE),采用创新的私密学习智能 (PLI) 框架。该提出的 PLI 框架利用联邦机器学习 (FL) 技术来自动构建和不断优化个性化学习模型,确保强大的隐私保护。我们的方法是推进 DLE 能 - 联邦学习中量化的效果:一种以 Rényi 差分隐私为视角的研究
通过分析量化对联邦学习系统中的隐私保护的影响,本研究论文得出了量化位级越低,隐私保护越好的结论,并通过隶属推理攻击验证了这一理论分析,证实了量化确实可以增强隐私保护。
- 保持私密性:在线文本的无监督私有化
通过强化学习,我们介绍了一种自动文本隐私保护框架,该框架通过针对大型语言模型进行微调,产生能够在保持准确性、连贯性和隐私性之间达到平衡的重写文本,并在大规模的测试集上进行了全面评估,并成功规避了多种自动化作者识别攻击。
- 双重隐私保护:面向人脸识别的稳健可追踪对抗水印
基于可追踪对抗性水印技术的双重隐私保护方案 (DPG),通过在载体的深层特征空间中嵌入身份特定的水印,欺骗未授权的人脸识别模型以同时允许授权者对身份进行验证,实现了显著的攻击成功率、可追踪性精度和优秀的鲁棒性。
- BCFPL: 低分辨率图像的基于二分类卷积神经网络的快速停车位识别
本文提出了一种轻量级设计结构的二进制卷积神经网络(BCFPL),该网络可用于低分辨率停车位图像的训练,并提供合理的识别结果。实验结果显示,BCFPL 在满足隐私要求的同时,具有低硬件要求和快速识别速度,因此在智能城市建设和自动驾驶领域具有应 - LMEraser:通过自适应提示调整进行大模型消除
为了满足对机器学习隐私保护的不断增长需求,我们提出了一种名为 LMEraser 的适用于大型模型的新颖高效的机器去学习方法。LMEraser 采用分治策略和提示调整架构来隔离数据影响,并实现训练数据集的适应性分区,从而显著降低去学习成本且保 - CrossGP: 排除生理信息的跨日血糖预测
基于患者的外部活动而无需涉及任何生理参数,我们提出了 CrossGP,这是一种新颖的机器学习框架,用于跨日血糖预测。通过与三种基准模型进行比较,对 Anderson 的数据集进行了大量实验,强烈证明了 CrossGP 的卓越性能,并证明了其 - DLoRA:大型语言模型的分布式参数高效微调解决方案
通过分布式 PEFT 框架 DLoRA,在云和用户设备之间合作进行参数高效微调并实现卓越准确性和隐私保护。
- LPSNet:无镜成像的端到端人体姿态和形状估计
通过无镜成像,提出了第一个端到端的框架,从无镜成像数据中恢复三维人体姿势和形状。
- 大型语言模型中的数字遗忘:遗忘方法综述
数字遗忘的目标是,通过给定具有不良知识或行为的模型,获得一个新模型,其中不再存在检测到的问题。在大语言模型中,数字遗忘的方法是取消学习方法中目标任务与数据,以达到保护隐私和防止不良内容生成的目的。
- 低成本注重隐私的分散式学习
介绍了 ZIP-DL 这一创新的隐私保护分散式学习算法,通过在模型训练过程中添加相关噪声的方法来确保噪声在聚合过程中几乎自动中和,最小化对模型准确性的影响;ZIP-DL 不需要多次通信来进行噪声抵消,解决了隐私保护和通信开销之间的常见权衡问 - 机器特征与标签的无关量度探索
面对分布变化的复杂机器遗忘问题,特别关注非均匀特征和标签删除带来的挑战,本研究提出了一种基于影响函数和分布独立原理的新方法,以解决隐私保护和模型性能之间的平衡,通过在多样分布下维护模型的性能和适应性,确保数据去除的高效性及动态调整模型以保持 - CEAT:用于非示例类别增量学习的连续扩展和吸收变换器
通过延展融合层并与冻结先前参数并行,然后无损地将扩展参数吸收到主干网络中,以确保参数数量恒定,同时采用新型的原型对比损失减少特征空间中新旧类别的重叠,并提出一种生成伪特征以校正分类器的新方法。实验结果表明,在 CIFAR-100、TinyI