- COLING局部差分私有化上下文学习
基于预训练语言模型和隐私保护的局部差分隐私框架中的语境学习(ICL)的分析研究
- 可解释的分布式学习中的数据融合:一种代表性的梯度匹配方法
该论文介绍了一种基于代表性的分布式学习方法,将多个原始数据点转化为虚拟表示。相比于传统的分布式学习方法如联邦学习,该方法能使复杂的机器学习过程可解释且易懂,通过将庞大的数据集压缩成可理解的格式来促进人机直观交互。此外,该方法能保持隐私和通信 - ICML对于每个 (文本序列) 的独立性:改进大型语言模型中的记忆数据遗忘
通过新的度量衡、对抗攻击以及基于梯度上升和任务算术的两种新的遗忘方法,本研究提供了关于 LLMs 隐私保护和遗忘的新视角,并在大量 NLP 任务上进行了全面的性能评估。
- 联邦学习中从本地更新恢复标签
在联邦学习中,梯度反转(GI)攻击对客户的隐私构成威胁,通过重新构建客户数据,实现了攻击客户的数据。本文提出了一种新的标签恢复方案 RLU,能在攻击未训练的(最易受攻击)模型时达到接近完美的准确性,并在现实世界中的真实环境中取得高性能,特别 - PrivComp-KG:利用知识图谱和大型语言模型进行隐私政策合规性验证
提出了基于大型语言模型和语义网络的隐私合规方法,通过开发隐私政策合规验证知识图谱(PrivComp-KG),有效存储和检索有关隐私政策、法规框架和领域特定知识的全面信息,实现对供应商隐私政策与相关政策法规的合规性查询。
- 以人为本的联邦学习中的公平性无需人口统计
通过降低训练过程中的 Hessian 矩阵的最大特征值,我们介绍了一种新颖的偏差缓解方法,从而在确保联邦学习参与者之间存在公平的损失景观的基础上实现了无需敏感属性信息的公平。此方法还通过基于错误率和损失景观曲率属性来促进参与模型的聚合,从而 - 去中心化学习的隐私保护聚合算法及其拜占庭容错性
SecureDL 是一种新颖的分布式机器学习协议,通过安全多方计算保护客户端模型更新的隐私,提高对拜占庭威胁的安全性和隐私保护。该协议使用余弦相似度的有效计算和更新的归一化来稳健地检测和排除对模型收敛有害的模型更新,并在多种拜占庭攻击中表现 - 个性化联邦学习中的序列层扩展在表征学习中的应用
通过表示学习的方法,将深度学习模型分解为更密集的部分,并应用适当的调度方法以解决数据和类别的异质性,从而提高个性化联邦学习算法的准确性并降低计算成本。
- 基于中心的放松学习对抗成员推断攻击
通过提出一种新的架构适应性训练范式(称为 CRL),我们在保持模型的成员一致性的同时,能够提供隐私保护,并且无需或仅需最小程度地损失模型的泛化能力,从而解决了现有防御方法和理想模型之间在性能和部署成本方面的差距。
- 大型语言模型引导的嵌入的隐私风险理解
这篇论文探讨了大型语言模型在提高检索式生成任务准确度方面的有效性,发现大型语言模型相较于传统的预训练模型具有更高的潜在危险性,可能对用户隐私造成负面影响,并探讨了缓解这一风险的初步策略。
- 安全和隐私产品融入
我们探讨了确保来自不同人口背景的用户的安全和隐私的挑战,并提出了一种威胁建模方法,以识别产品安全和隐私的潜在风险和对策。我们讨论了影响用户实现高水平安全和隐私的各种因素,包括低收入人口、连接质量差、共用设备使用、ML 公平性等。我们展示了一 - 大型语言模型的个性化无线联邦学习
基于大型语言模型的联邦学习方法,在无线网络中解决了隐私和安全保护机制不足的问题,并通过两种个性化无线联邦微调方法实现了低通信开销。
- 计算社会科学和人工智能研究中的隐私嵌入
保护隐私是计算社会科学、人工智能和数据科学等领域中的重要问题,本文讨论了隐私的角色和研究人员在这些领域可能面临的主要问题,并提出了保护参与者隐私的若干重要考虑因素。
- IJCAIFedPFT: 基于联邦代理的基础模型迁移微调
通过联邦学习策略对基础模型进行适应性调整,以保护数据隐私和有价值的基础模型,提出了一种新方法 Federated Proxy Fine-Tuning (FedPFT),通过两个关键模块增强联邦学习下游任务中的基础模型的适应性。实验证据表明 - 基于分布式联邦学习的隐私 MRI 脑瘤检测深度学习模型
本研究通过创新性地使用联邦学习方法,解决数据隐私和高效疾病诊断的双重挑战,以提高医学图像分类的准确性和效率,展示了联邦学习在磁共振成像(MRI)脑肿瘤检测中的应用效果,并强调了解决数据异质性的重要性和拓展联邦学习在医学图像分析中的研究方向。
- 具有差分隐私的黎曼流形上的联邦学习
提出了一个基于 Riemannian 流形的差分隐私技术的私有联邦学习框架 (PriRFed),分析了隐私保证的同时确立了收敛性属性,是第一个具有隐私保证和收敛结果的基于 Riemannian 流形的联邦学习框架
- 超越噪声:带有虚拟节点的隐私保护去中心化学习
Shatter 是一种新型的分散式学习方法,通过创建虚拟节点(VNs)来增强隐私保护,防止攻击者收集完整模型并隐藏原始节点的身份。该方法在提高隐私安全性的同时,对于模型收敛性也有积极影响。
- 隐私的代价:探索其对人工智能公平性的双重影响
通过广泛的评估结果,我们证明不同隐私度对公平性的影响并非单调。相反,我们观察到准确性差异在机器学习过程中添加更多的差分隐私噪声(增强隐私)时初步增加,但在更高隐私水平下通过更多噪声后逐渐减小。此外,通过在差分隐私随机梯度下降机器学习方法中实 - 语音匿名化对病理学的影响及其局限性
对匿名化技术在病理性语音中的影响进行了研究,发现它可以增强隐私性,同时强调了为了应对逆向攻击,需要采用定制化方法来平衡隐私和诊断效用。
- 运动中的混沌:透过模仿大脑的皮肤追踪揭示遥感心率测量的鲁棒性
使用混沌理论设计了一种脑启发式的框架,通过分析视频的光流信号的时空特性实现遥测心率测量,从而解决了现有方法中的准确性、适用性和隐私泄露问题。