- 跨联邦物联网设备对数据分布的对抗预测
联邦学习是用于分散式物联网设备训练机器学习模型的默认方法之一。但是,本研究表明,联邦学习中共享的模型权重可能泄露物联网设备的本地数据分布信息,并且模型权重注入噪声无法有效防止数据泄露。
- 减轻联邦学习中基于交叉客户端 GAN 的攻击
机器学习在多媒体数据(例如图像)中更具吸引力,然而多媒体数据通常具有分布性和隐私敏感性。在这篇论文中,我们展示了联邦学习(FL)遭受跨客户生成对抗网络(C-GANs)攻击的问题,然后我们提出了 Fed-EDKD 方法来提高当前广泛应用的 F - SaaFormer: 光谱 - 空间轴向聚合变压器用于高光谱图像分类
提出了一种名为 SaaFormer 的新型用于处理高光谱图像分类的深度学习模型,采用块状采样方法来减少数据泄露,该模型包含两个主要组成部分:轴向聚合注意力和多级光谱 - 空间提取结构。在六个公开数据集上的结果表明,在块状采样分区时,该模型的 - 跨模态检索训练中的数据泄露:一项案例研究
本文主要研究声音检索中,数据集的自动获取问题。作者通过分析 SoundDesc 数据集的问题,提出了新的训练、验证和测试集,避免了数据泄漏问题,该数据集的效果更具有挑战性。
- ACL仇恨言论检测的联邦方法
本文研究了针对社交媒体上产生的内容进行仇恨言论检测,在此基础上探讨采用联邦机器学习方法应对隐私问题,并且可以在 F1 得分方面获得高达 6.81% 的提高。
- 关于成员推断攻击的不信任
本文探讨了使用 MI 攻击来检测敏感数据泄露的问题,结果发现 MI 攻击容易被挑战其可靠性,并提出一种新的算法,将假阳性率提高至数千倍。
- 医疗健康领域联邦学习 - 流程、应用与挑战
本篇调查研究了联邦学习在医疗保健领域中的应用,讨论了其中存在的挑战、方法和应用,并概述了联邦学习在医疗行业中的潜在可能性。
- 数据加密在中文命名实体识别中的应用
本文介绍了一个加密学习框架,引入了多种算法对命名实体识别任务的训练数据进行加密,并使用加密数据训练深度神经网络,在六个中文数据集上进行实验,本文解决了数据泄露问题并取得了令人满意的结果。
- 机器学习科学中的泄漏与再现危机
通过调查 ML 方法在 17 个领域中被广泛采用的文献,我们系统地调查了 ML 方法在科学研究中的可重复性问题,并发现数据泄漏确实是一个普遍存在的问题,并提出了模型信息表来报告基于 ML 模型的科学主张,以便在发布前发现泄漏情况,并进行了模 - 评估超参数对知识图谱嵌入质量的影响
通过 Sobol 敏感度分析,本文研究了不同知识图谱的超参数灵敏度差异,并提出了一个泄漏鲁棒的知识图谱变种 UMLS-43。
- CAFE: 垂直联邦学习中的灾难性数据泄露
本论文提出一种名为 CAFE 的先进数据泄露攻击方法,可有效地从共享聚合梯度中恢复批量数据,并指出标准 FL 中的隐私数据,尤其是竖直情况下,有很高的泄露风险。
- AAAIPrivateSNN:保护隐私的脉冲神经网络
本研究提出了 PrivateSNN,旨在从现有的预训练 ANN 模型中构建低功率尖峰神经网络 (SNNs),避免数据泄露和泄露敏感信息,通过对 SNN 权重进行加密,实现有效的隐私保护与能源效率提升。
- AAAI使用深度自动编码神经网络在明文中泄露敏感财务会计数据
本研究旨在介绍利用深度混编技术进行欺诈性数据泄露的威胁模型,该模型可以将敏感会计数据隐藏在日常图像中,并且可以通过深度学习模型进行训练,而且可以规避当前的计算机辅助审计技术。本文在两个公开的实际支付数据集上进行了定量和定性的评估。
- 推荐系统离线评估中数据泄露的关键研究
本文对推荐系统离线评估中的数据泄漏问题进行了全面的分析,并通过实验表明,数据泄漏确实会影响模型的推荐准确性,提出了一种时间轴方案来评估推荐系统,以更加真实地模拟离线环境。
- Hermes 攻击:利用无损推断准确率窃取深度神经网络模型
本文提出了一种名为 Hermes Attack 的新型模型提取攻击,该攻击利用未加密的 PCIe 数据流泄漏全部目标 Deep Neural Networks 模型。通过巨大的逆向工程、可靠的语义重构以及熟练的数据包选择和顺序修正,我们的方