- ICML从单个序列元素中提取静态信息的顺序解缩
通过引入简单且有效的减法归纳偏差,条件于单个样本,我们提出了一种新颖且简单的架构,以减少信息泄漏,并展示了在生成和预测任务上相比多个强基准方法更先进的结果。
- LLM 间在不泄露私人信息的情况下是否可能相互协助?
本研究通过引入隐私保护技术,展示了在具有敏感数据访问权限的情况下,将级联系统应用于机器学习模型中的可行性,并提出了减少信息泄露风险的两种隐私度量方法。同时,通过运用社交学习范式,展示了在多个数据集上,相较于非级联基线,我们的方法不仅最小化了 - 联邦学习中的数据重构攻击防御:一种信息论方法
在分布式学习中,我们提出了一种通过限制传输信息量并应用数据空间操作的渠道模型,以提高数据重构攻击下的隐私保护,验证了方法的有效性。
- 使用监督、层次概念学习消除硬概念瓶颈模型中的信息泄漏
提供标签监督和层次化概念集概念预测模式,SupCBM 消除信息泄漏问题,实现准确预测和解释。
- DCS-Net: 具有全球洞察能力的无漏洞点云预训练框架
我们引入了一种称为可微分中心采样网络(DCS-Net)的新型解决方案,通过同时学习点云中的全局模式和局部模式,有效地提升了现有点云模型的表达能力并解决了信息泄漏问题。
- SunBlock:物联网系统的无云保护
使用人工智能工具结合经典的基于规则的流量过滤算法,在家庭路由器上本地有效地检测物联网威胁,实现对典型家庭物联网网络的保护,无需依赖云服务和第三方。
- 通过近似贝叶斯最优预测进行信息泄露检测
在当今数据驱动的世界中,公开可用信息的广泛传播加剧了信息泄漏(IL)的挑战,提高了安全性问题。本研究利用统计学习理论和信息论建立了一个理论框架来准确量化和检测 IL。该方法通过近似贝叶斯预测器的对数损失和准确度来准确估计互信息(MI),并使 - 协调医学影像中的人工智能性能与数据重建韧性
人工智能模型对其训练数据的信息泄漏存在漏洞,而隐私增强技术,如差分隐私,旨在规避这些弱点。通过设置可量化的隐私预算,差分隐私为训练模型提供最强大的保护,同时限制推断训练样本的风险或重建原始数据的风险。本研究对比了在不同隐私预算下人工智能模型 - 基于概念残差模型的分解性能测评和增强
通过对概念和残差进行分离的三种新方法来减轻信息泄露,研究和平衡模型性能和可解释性之间的关键平衡,以及如何干预概念对任务性能的影响。
- PriPrune:修剪联邦学习中的隐私量化和保护
我们对模型剪枝技术在联邦学习中隐私保证进行了第一次研究,推导出了剪枝模型泄露信息量的信息论上界,并通过实验验证了这些理论发现,结果显示我们提出的 PriPrune 算法显著改善了隐私和模型性能的平衡。
- 机器学习中的一对一可区分性
我们引入了一个新的分析框架来量化在机器学习算法的训练集中包含一些数据点之后,输出分布的变化,我们将这一概念定义为留一法区分度(LOOD)。我们使用高斯过程模型机器学习算法的随机性,并通过对会员推理攻击使用信息泄露进行广泛的实证分析验证 LO - 差分隐私安全乘法:在噪音的残渣中隐藏信息
我们研究了私密分布式多方乘法的问题,通过允许一定程度的信息泄漏和近似乘法,提出了一种紧密特征的隐私准确性权衡方案,使用差分隐私度量信息泄漏,使用均方误差度量准确性,其中包括不同层次的噪声分布,融合了差分隐私和 Shamir 秘密共享的思想。
- ICLR只分享你的表达:保证在联合学习中隐私效用权衡的改进
使用差分隐私算法减轻联邦学习中的信息泄露风险,提供共识模型的协作更新,同时允许本地个性化,以优化隐私 - 效用权衡问题,并通过实验证明,在小的隐私预算下,相比之前的方法,在图像分类任务中取得显著性能提升。
- 模糊匹配器泄露的综合分析
本文全面分析了距离评估中潜在的信息泄露问题,特别关注阈值为基础的模糊匹配器。它详细描述了与潜在信息泄露相关的各种情况,并特别关注其对安全性的影响。概述了针对每种情况的通用攻击,并评估了其复杂性。这项工作的主要贡献在于提供了模糊匹配器在存在附 - 面向医疗数据民主化与信息泄露预防的数据编码
这篇论文提出了一种通过不可逆编码实现数据民主化的方案,能在不违反医疗数据和临床模型的隐私约束条件下,保证编码数据能够保留原始数据的语义以有效地训练深度学习模型,并减少模型的信息泄漏。
- ACL生成式嵌入反演攻击揭示句向量的信息泄露
通过生成对抗网络逆向语言模型的句向量表示,揭示其可能存在的信息泄露,并提出一种更为高效的逆向分析方式。
- 问答中的保密
通过设计和实现一个概念验证体系结构来教授一个问题回答系统保持特定事实的秘密,但也需要更多的研究以减少系统偏执(假阳性),信息泄漏(假阴性)并将该工作的实现扩展到在信息聚合的情况下保持保密的更复杂的问题。
- AAAIILSGAN: 无监督前景 - 背景分割的独立层合成
采用独立层合成 GAN (ILSGAN) 的显式独立建模方法,以避免信息泄漏,从而在复杂的实际环境下实现强大的前景 - 背景分割性能,并取得了最先进的生成质量和分割性能。
- ICLRCANIFE: 为联邦学习制作金丝雀进行实证隐私测量
本文提出了一种名为 CANIFE 的新方法,该方法利用了数据中的信息来评估联邦学习训练的隐私保护情况,并在基于多个真实数据集的实验中证明 CANIFE 方法的实际应用比理论边界更为有效,对于机器学习模型的保障性较高。
- Redactor:基于数据和个性化的抵抗推理攻击的防御
研究信息泄露的问题,提出了利用针对性误导生成来强化机器学习模型对推理攻击的鲁棒性,即通过插入新数据来稀释原数据,使用多个分类器的决策边界进行概率标注。