- 运动中的混沌:透过模仿大脑的皮肤追踪揭示遥感心率测量的鲁棒性
使用混沌理论设计了一种脑启发式的框架,通过分析视频的光流信号的时空特性实现遥测心率测量,从而解决了现有方法中的准确性、适用性和隐私泄露问题。
- FLEX:灵活的联邦学习框架
人工智能中的隐私和安全在数据处理中变得至关重要,联邦学习作为一种保护数据隐私的方法在这篇论文中被引入,而 FLEX 则是一个灵活的联邦学习框架,旨在提供最大的灵活性,以进行联邦学习研究实验,并在特定实现领域提供库。
- 激进或隐蔽,或者两者兼具:联邦学习中网络剪枝辅助的混合拜占庭节点
通过提取与神经网络拓扑特定的一定侧面信息,我们提出了一种混合稀疏拜占庭攻击,该攻击由两部分组成:一部分表现出稀疏特性,只攻击具有较高敏感性的神经网络位置,另一部分更加隐匿且随着时间积累,理想上每部分针对不同类型的防御机制,二者共同形成一种强 - 隐私与可解释性之间的权衡:异常检测的差分隐私分析
我们的研究利用可解释的人工智能(XAI)和差分隐私(DP)之间的权衡,通过 SHapley Additive exPlanations (SHAP) 和差分隐私 (DP) 进行异常检测(AD),并对不同的模型和各种数据集进行了全面评估,结果 - 使用 GPT-4 初探表格数据的零 - shot 隐私 - 效用权衡
我们研究了大型语言模型(LLMs),特别是 GPT-4,在涉及表格数据中隐私与效用之间的权衡场景中的应用。我们的方法是通过将表格数据转化为文本格式,然后以无监督的方式包含精确的消除敏感信息的指示来激活 GPT-4。我们的主要目标是以一种使得 - 基于梯度滑动方法的少数据神经网络分布式随机约束优化
现代分散应用中,通信效率和用户隐私是关键挑战。为了训练机器学习模型,算法必须与数据中心进行通信并对其梯度计算进行采样,从而暴露数据并增加通信成本。为了解决这个问题,我们提出了一种分散优化算法,它在通信效率上高效,并通过最优梯度复杂性达到了一 - 通过 Hammersley-Chapman-Robbins 界限保证机密性
通过在最后几层的激活中添加噪声,可以保护深度神经网络在推断过程中的隐私,防止从噪声特征中重构输入,而 Hammersley 和 Chapman Robbins 的经典不等式提供了可行的计算上可行的下界模型,但对于已在 ImageNet 数据 - 增强分布式网络中的信任和隐私:基于区块链的联邦学习的综合调查
区块链与联邦学习的综述和展望,介绍了基于区块链的联邦学习的分类、体系结构和应用,并指出了未来研究方向。
- DSF-GAN: 下游反馈生成对抗网络
使用一种名为 DSF-GAN 的新型架构,通过从下游预测模型获得反馈信息来增强生成器的损失函数,从而提高合成样本的效用。与没有反馈的相同类型的 GAN 生成的合成样本相比,DSF-GAN 生成的合成样本在模型性能上表现出更好的效果。
- 探索中文大型语言模型的隐私保护能力
我们设计了一个三层渐进式框架,用于评估语言系统的隐私,以解决大型语言模型在隐私保护方面的问题。观察结果显示,现有的汉语大型语言模型普遍存在隐私保护方面的缺陷,可能在基于这些模型的应用中带来相应的隐私风险。
- 解读本地差分隐私、平均贝叶斯隐私和最大贝叶斯隐私之间的相互作用
我们综合研究引入了贝叶斯隐私并深入探讨了局部差分隐私及其贝叶斯对应之间错综复杂的关系,揭示了新的有关效用和隐私之间的权衡。
- 具有相关噪声的差分隐私在线联邦学习
我们提出了一种新颖的差分隐私算法,用于在线联合学习,通过使用时间相关的噪声来提高效用并确保连续发布的模型的隐私性。
- 消费者物联网流量调查:安全与隐私
消费物联网的安全和隐私旨在对物联网的流量分析进行调查,从中了解安全和隐私的新特征、最新进展以及待解决的挑战,并总结了物联网流量分析过程中的新特征。此外,还详细介绍了基于五个应用目标的现有研究,包括设备指纹识别、用户活动推断、恶意流量分析、安 - 数据擦除的前沿:大型语言模型的机器取消学习
大型语言模型开创了人工智能的进展,然而它们可能会危险地记忆和传播敏感、偏见或受版权保护的信息。机器遗忘作为一种尖端解决方案应运而生,针对大型语言模型提供了一种选择性丢弃某些数据的技术,以解决隐私、道德和法律方面的挑战,无需进行完整的模型重新 - 大型语言模型的差分隐私下一个令牌预测
通过对公共 LLM 输出分布周围的集合投影,并对投影分布进行平均和抽样,PMixED 提供了基于模型预测的差分隐私保护方法,比样本级隐私更可靠,并在大规模数据集上胜过 DP-SGD。
- ICMLHETAL:具有同态加密的高效隐私保护迁移学习
HETAL 是一种高效的基于同态加密的迁移学习算法,通过使用 CKKS 同态加密方案对客户数据进行加密,并采用基于验证的早停方法,实现了对客户隐私的保护,并达到了非加密训练的准确性。
- 近似机器遗忘是否得到适当评估?从审计到副作用
通过引入明确定义和有效的度量标准来解决黑箱取消学习审核任务的挑战,该论文分析了当前近似机器取消学习算法的实用性、韧性和公平性,并旨在将数据遗忘的理论权利转化为可审计的现实。
- CVPR预训练视觉模型的持续遗忘
通过引入 GS-LoRA 方法,实现对预训练模型中特定信息的持续遗忘,以解决在保持剩余知识的同时高效删除不需要的知识的关键挑战。
- 差分隐私下的联邦迁移学习
在这篇论文中,我们以一个联邦迁移学习框架解决了数据异构性和隐私保护这两个突出的挑战,旨在在遵守隐私约束的同时通过利用来自多个异构源数据集的信息来增强目标数据集上的学习能力。我们严格地提出了 “联邦差分隐私” 的概念,为每个数据集提供隐私保证 - IoTCO2:评估物联网驱动的深度学习的端到端碳足迹
为了提高隐私和保证服务质量,深度学习模型越来越多地部署在物联网设备上进行数据处理,从而显著增加了与物联网上深度学习相关的碳足迹,覆盖了运营和实体方面。本文引入了 extit {CARB},一种用于物联网上深度学习精确估计碳足迹的端到端建模工