- 模型增强的基于 LLM 的 VUI 测试 VPA 应用程序
利用 Elevate,一种基于大型语言模型(LLM)驱动的语音用户界面(VUI)测试框架,可以通过借助 LLMs 在自然语言处理方面的强大能力来弥补基于模型的 VUI 测试中的语义信息损失,并通过创新技术将 LLM 与行为模型结合,以提高测 - 多语言讲话者匿名化的可行性探究
通过对九种语言的组件进行转换,将说话人匿名化系统扩展到多种语言,并通过隐私攻击和语音退化测试证明了该系统的整体成功。结果表明,基于英语数据训练的说话人嵌入可以应用于多种语言,并且语音合成组件的质量主要影响该语言的匿名化性能。
- SlerpFace:面部模板保护的球面线性插值
当代人脸识别系统使用从人脸图像中提取的特征模板来识别个人。为增强隐私,广泛采用人脸特征模板保护技术来隐藏模板中存储的敏感身份和外貌信息。本文首先识别一种利用扩散模型的新型隐私攻击形式,称为倒置攻击,可以抵消先前的保护措施。该攻击能够从模板合 - 暗影中的曙光:利用成员推断进行机器去学习
通过创造一种新的损失函数,将目标分类损失和成员推断损失相结合,用于从神经网络中删除敏感信息的机器遗忘机制,本研究通过成员推断机制作为概念验证,提供了实验证据,证明了我们的遗忘方法在遗忘效果、延迟和主要任务准确性方面的优越性。
- MH-pFLGB: 模型异构个性化全球绕行联邦学习用于医学图像分析
在医学人工智能应用中,联邦学习以保护训练数据隐私而著名。我们引入了一种新方法 MH-pFLGB,利用全局旁路策略来解决统计和系统异质性带来的挑战,并优化联邦学习的有效性。此方法通过整合全局旁路模型,增强了传统联邦学习的性能,同时还提供特征融 - FedMap:迭代基于幅度修剪的通信高效联邦学习
FedMap 是一种新颖的方法,通过协作学习逐渐稀疏全局模型,从而提高联邦学习系统的通信效率,适用于对隐私至关重要的医疗和金融领域。它采用迭代的振幅剪枝方法训练全局模型,以减少通信开销,避免了参数重新激活问题,实现了稳定的性能表现。FedM - QBI:基于分位数的偏差初始化在联邦学习中用于高效的私有数据重建
基于联邦学习的隐私保护中,我们提出了 QBI 和 PAIRS 两个算法,分别通过稀疏激活模式和附加数据集的方式提高了恢复数据的能力,并且在 ImageNet 和 IMDB 情感分析数据集上得到了显著的改进,同时我们还提出并评估了 AGGP, - 隐形分类器:对敏感分类任务的伪姓名策略
分享我们的指南以及我们在处理敏感 NLP 数据时遇到的挑战和结果数据集,强调在数据共享中保护隐私的重要性,并确保数据的实用性和稳健的隐私保障。
- 具有个性化 PageRank 应用的差分隐私图扩散
本研究提出了一种新颖的图扩散框架,通过使用噪声扩散迭代对每条边提供不同的隐私保证,以保护图数据的隐私。通过引入 Laplace 噪声和基于度的阈值函数来减轻低度节点引起的高灵敏度。我们的隐私损失分析是基于迭代的隐私放大方法,并通过引入一种新 - CollaFuse: 协同扩散模型
通过分布式协作扩散模型,我们提出了一种新的方法,在感知图像的同时减轻了客户端的计算负担,从而实现协作训练和数据隐私的增强。
- 利用有限资源进行 Transformer 联合学习而不共享模型
使用名为 Fed-Grow 的联邦框架,设计了一个名为 Dual-LiGO 的架构来帮助多个参与者从其预训练的小模型扩展到一个 Transformer,以提高模型的准确性和资源利用率,并保护用户的隐私。
- 6G 联邦学习动态频谱共享的安全与隐私
6G 无线通信中的频谱共享越来越重要,机器学习技术的应用在感知频谱空洞方面发生了显著变化,通过联邦学习实现的频谱感知技术引起了广泛关注,但协作训练的完整性和本地用户频谱信息的隐私安全问题仍然未被充分探索。本文首先研究了适用于 6G 场景的联 - 使用联邦学习训练扩散模型
我们提出了一种联合扩散模型方案,可以在不暴露本地数据的情况下独立和协作地训练扩散模型。通过对底层 UNet 骨干网的新颖利用,我们实现了在训练过程中参数交换数量的显著降低,最多可达 74%,而同时仍能保持与中心化设置相当的图像质量,依据 F - 个性化联邦知识图嵌入与客户关系图
使用客户关系图进行个性化联邦知识图嵌入的方法(PFedEG),通过识别来自其他客户端的嵌入的语义关联性,为每个客户端学习个性化的嵌入,从而解决了现有 FKGE 方法中的全局共享补充知识被噪音淹没和局部与全局优化目标不一致的问题。
- 基于关键图的高效目标级机器取消学习方法
机器遗忘是一种新兴技术,主要研究如何使训练模型忘记一些训练数据。本文提出了一种名为 “目标遗忘” 的更有效和高效的遗忘方案,通过构建一个关键参数的关系图数据结构和基于修剪的遗忘方法,实现从模型中删除部分目标的信息。实验结果验证了该方法的有效 - 联邦学习中的安全、隐私和公平的链接:新的平衡和新的视角
联邦学习中隐私、安全和公平的问题及其相互关系,以及其中的权衡。
- 做个金鱼,不要死记硬背!减轻生成型 LLMs 中的死记硬背现象
通过引入一种名为金鱼损失的微妙修改,我们减轻了大型语言模型记忆和重复其训练数据所带来的隐私和版权风险。我们进行了大规模实验,训练了数十亿规模的 Llama-2 模型,并证明了可提取的记忆量显著减少,同时对下游基准测试的影响几乎没有。
- 基于对说话人嵌入进行对抗扰动的异步语音匿名化
本文研究声音匿名化技术,重点探讨改变语音特征以防止机器识别但保留人类感知的异步声音匿名化方法,采用包含说话人解缠机制的语音生成框架生成匿名语音,并通过对说话人嵌入进行对抗扰动改变说话人特征,同时通过控制扰动强度保留人类感知。实验结果表明,在 - KDDDPSW-Sketch: 隐私差分化滑动窗口频率估计的草图框架(技术报告)
在滑动窗口模型中,提出了 DPSW-Sketch,一种基于计数最小化技术的算法,能够满足隐私性要求,并且在子线性时间和空间内近似估计任意项目的频率和重要项,实验结果显示其在效用和隐私权之间取得显著的权衡。
- 用于匿名学习图像压缩的感兴趣区域损失
在公共空间使用人工智能不断引发对隐私和敏感数据保护的担忧,本论文介绍了一种使用定制损失函数的 ROI 来实现足够去识别化的方法,通过训练端到端优化的自编码器来实现压缩和去识别化,同时考虑了压缩率、延迟和对人脸和人物检测模型的影响。