- ORLM:训练大型语言模型用于优化建模
通过训练开源的大型语言模型(LLMs)来处理自动化优化建模中的数据隐私问题,提出了定制化合成数据的半自动化过程(OR-Instruct),并在实际应用中实现了显著改进的优化建模能力。
- P4: 私密、个性化和点对点学习
通过开发 P4(Personalized Private Peer-to-Peer)方法解决个性化学习中的客户聚类和数据隐私的挑战,保证每个客户在培训期间和培训后维护不同的隐私保证,并在多个基准数据集和不同的神经网络模型上展示了相对于差分隐 - 大型语言模型上基于联邦领域专用知识迁移的合成数据使用
通过差分隐私,利用大型语言模型在私有领域数据上合成样本,并将其用于改进小型语言模型,通过联邦领域特定知识迁移框架 (FDKT) 在保护客户数据隐私的同时,提高小型语言模型的任务性能,实验结果表明与本地私有数据训练相比,在隐私预算小于 10 - 医疗中的联邦学习:模型不端、安全挑战、应用及未来研究方向 -- 系统综述
通过分析医疗保健领域中已经存在的研究文献,本研究系统评估了联邦学习在提供隐私保护的同时维护医疗数据分析的完整性和可用性方面的效力,同时探讨了实际应用及其影响,突出未来的研究方向,旨在完善联邦学习的实现、增强数据安全协议,并将联邦学习拓展到更 - EmInspector:通过嵌入式检查应对联邦自监督学习中的后门攻击
通过检查本地模型的嵌入空间,本文提出了嵌入检查器(EmInspector),可有效地防范联邦自我监督学习(FSSL)中的后门攻击。
- 量子机器学习隐私优势的前景
保证数据隐私在机器学习模型中至关重要,尤其是在分布式环境中,其中模型梯度通常在多个参与方之间共享,以实现协同学习。该研究揭示了基于量子机器学习模型的梯度中恢复输入数据的困难程度,并发现了动力学李代数在决定隐私漏洞方面的重要作用。研究结果显示 - 生物医疗健康中联邦基础模型的挑战与机遇
该调查研究了基本模型(FM)在人工智能中的转化影响,重点关注其与联邦学习(FL)相结合在推进生物医学研究中的应用。基于巨大数据集通过无监督预训练、自监督学习、指导微调和人类反馈强化学习等方法训练的基本模型,如 ChatGPT、LLaMa 和 - 用于网络安全的大型语言模型:系统文献综述
大型语言模型在网络安全领域的应用综述,包括漏洞检测、恶意软件分析、数据隐私等问题,指出了数据集大小与多样性的重要性以及未来研究方向。
- 可证明的无法学习样本
为了保护数据隐私和知识产权,在公共可访问数据的开放共享过程中,通过引入经验证的扰动方法用于对抗未授权模型与训练时技术。本文提出了使用参数平滑参数化认证非可学习数据集的机制,以改善认证可学习性的紧密性,并设计了具备降低学习可信度的可以进行论证 - MM分散多智能体学习的通信高效负载平衡
分散多智能体学习(DML)通过保护数据隐私实现协作模型训练。然而,代理资源的内在异质性(计算、通信和任务大小)可能导致训练时间的巨大变化。为减少在异质环境中的训练时间,我们提出了一种用于分散多智能体学习的通信高效的训练工作负载平衡方法(Co - 面向有效的 VNF 分析的联邦传输组件分析
本文提出了一种基于联邦传输组件分析的方法,通过训练生成对抗网络模型并使用已有和目标虚拟网络功能的数据,实现了资源消耗的预测,同时保护数据隐私。实验结果表明,该方法能有效地减少回归模型的均方根误差指标,并提高决定系数度量值。
- SynthEval:一个用于详细评估表格化合数据的效用和隐私的框架
合成数据评估框架 SynthEval 旨在解决机器学习中的数据稀缺性、数据公平性和数据隐私性问题,并通过统计和机器学习技术全面评估数据的准确性和隐私保护完整性。
- 基准化高级文本匿名化方法:关于新颖和传统方法的比较研究
本研究通过对比分析使用转换器模型和大型语言模型 (LLM) 与传统架构进行文本匿名化任务的性能,评估了几种模型的表现,并展示了每种方法的优点和缺点,为研究人员选择最合适的模型提供了明确的视角。
- CVPR非普适例子
通过引入一种名为 UGE 的方法,本文提出了一个保护训练过程中数据隐私的框架,其旨在在授权用户具备可学习性的同时,对潜在黑客具备不可学习性,从而确保数据的可用性和保护数据的隐私。
- 超声金属焊接的任务个性化联邦迁移学习
这篇研究论文提出了一种名为 FTL-TP 的联邦迁移学习框架,用于在分布式学习中提供域泛化能力,同时确保数据隐私,以适应多个类似任务的客户,从而提高其总体适应性和性能。
- 使用 zk-SNARKs 进行隐私保护的 UCB 决策过程验证
本研究介绍了 zkUCB 算法,通过使用零知识简明互动知识论证(zk-SNARKs)来增强上限置信界(UCB)算法,从而在保护数据和算法参数隐私的同时确保 UCB 的可验证性。实验证明了 zkUCB 在决策过程中减少信息熵,通过巧妙的量化位 - 使用卷积神经网络的隐私 - 保护入侵检测
使用 PriMIA 框架,本文在基于卷积神经网络的攻击检测系统上增强了隐私保护技术,以解决隐私保存和数据安全的问题。
- 划分而非劫持:在划分学习中防止特征空间劫持攻击
结合拆分学习和函数秘密共享的混合方法可以确保客户数据的隐私安全,并提高机器学习流程的效率。通过给激活图添加随机掩码,利用函数秘密共享生成股份,从而实现在前向和后向传播过程中,服务器无法从激活图重构客户的原始数据。此方法成功降低了隐私泄露,并 - 合成数据生成模型的评估框架
通过提出一个新的评估框架,本研究旨在评估合成数据生成模型的能力以生成高质量的数据,利用统计和理论信息来比较模型的排名,并展示了该框架在两个应用场景下的实用性。
- 带随机噪声的私密瓦石坦距离
该研究通过研究 Wasserstein 空间中的三角属性,提出了一种名为 TriangleWad 的简单解决方案,可以在不同实体之间计算存储的数据集之间的 Wasserstein 距离。该方法使原始数据信息变得真正不可见,提高了对攻击的抵抗