- 隐私保护分布式学习的基于量化的技术
本研究论述了一种符合规定的分布式机器学习训练的数据保护技术,采用基于量化多哈希数据表示和随机化的协议,保护训练数据和机器学习模型参数,并通过标准安全多方计算协议共享超参数。实验结果展示了该方法的鲁棒性和保持准确性的特性。
- 隐私保护异构联邦学习敏感医疗数据
我们提出了一个名为 AAFV 的新框架,它能够在协同训练异构本地模型的同时保护数据隐私,通过将新的放弃感知投票机制和差分隐私机制集成到本地模型的预测中,实现高效学习和模型保密。
- 图机器学习的安全性:威胁与保障
探讨了提高图机器学习(Graph ML)安全性的三个关键方面:可靠性、泛化能力和保密性,并采用一种新的分类法分析了与这些方面相关的威胁,指导评估有效策略来保护图 ML 模型的安全性,为未来的研究奠定基础。
- Proteus:在图优化过程中保护模型的机密性
Proteus 是一种新机制,可以在保护模型架构的同时进行模型优化,通过将计算图分割为子图并将每个子图隐藏在生成的大量逼真子图池中,有效地隐藏模型,确保保密性并且不影响性能优化机会。
- 基于 Blowfish 算法的实时场景下增强安全性的人工智能问题
通过使用混合加密,本研究涵盖了云基础设施中的所有安全问题和泄漏。
- 通过 Hammersley-Chapman-Robbins 界限保证机密性
通过在最后几层的激活中添加噪声,可以保护深度神经网络在推断过程中的隐私,防止从噪声特征中重构输入,而 Hammersley 和 Chapman Robbins 的经典不等式提供了可行的计算上可行的下界模型,但对于已在 ImageNet 数据 - FhGenie:为企业和科学使用而定制的保密的聊天人工智能
自 OpenAI 发布 ChatGPT 以来,生成型人工智能在各个领域引起了很大的关注。这些基于人工智能的聊天系统有潜力提高知识工作者在各种任务中的生产力,然而,使用免费公共服务存在数据泄露的风险,因为服务提供商可能在没有明确边界的情况下利 - FairProof:神经网络的保密和可验证公平性
基于零知识证明技术的 FairProof 系统通过公开验证模型公平性的同时保持机密性,解决了使用机器学习模型时面临的法律、隐私及公平性等问题。
- 机器中的低语:LLM 整合系统中的保密性
本文提出了一种系统评估 LLM 集成系统中机密性的方法,通过形式化 “秘密密钥” 游戏来比较模型的脆弱性和不同防御策略的有效性,发现当前的防御策略在攻击策略方面缺乏泛化能力,并提出了一种受对抗训练启发的鲁棒性微调方法,有效降低了攻击成功率并 - IRG:使用 GAN 生成合成关系数据库
在学术界和工业界存在对数据共享的不断增长需求,然而这种共享在个人隐私和数据机密方面存在问题。作者提出了一种名为增量关系生成器 (IRG) 的方法,利用生成对抗网络 (GAN) 来合成生成多个相关表格,并在公共数据集和私人学生数据上的实验证明 - 从信息流控制的角度重新思考机器学习管道中的隐私
在本文中,我们从信息流控制的角度描述了机器学习系统,利用元数据,如访问控制策略来定义明确的隐私和机密性保证,通过比较两种不同方法,即针对每个用户进行微调模型和在推理时访问用户特定数据集的检索增强模型,我们证明检索增强架构可以在满足严格的非干 - 对自信度排名的人口普查个体微观数据再建方法的隐私威胁的调查
报告结果表明,提出的置信度排序的重构攻击在重新识别以及属性泄露方面无法有效指导,这一结果进一步证明了使用基于差分隐私的解决方案的必要性,并且展示了适当解释发布的统计聚合数据能更准确地重构普查记录,从而证明了置信度排序的重构无法威胁隐私。
- 个性化联邦多臂赌博机
本研究通过提出的 PF-PNE 算法,同时优化异构客户端的个性化联邦学习目标,通过特殊的双重淘汰策略安全地消除非最优区域,并通过有偏但有效的本地目标评估鼓励联邦合作。该算法能够处理任意程度的异构性,有限的通信保护客户端奖励数据的机密性。理论 - 将同态加密与可信执行技术整合,实现云中自主且保密的模型优化
设计一个在云端进行自主和保密模型优化的方案,结合同态加密和可信执行环境技术,通过实现和实验评估方案的可行性。
- DeID-GPT:GPT-4 零痕迹医疗文本去识别
该研究使用 GPT-4 大型语言模型开发了一种名为 DeID-GPT 的新的医学文本数据去识别框架,通过在医学领域使用零 - shot 上下文学习识别模型保护隐私信息,并保留文本的原始结构和含义,比起现有方法 DeID-GPT 的准确性最高 - 通过量子干涉实现无冲突联合采样以满足偏好
本研究探讨了几种采样方法,这些方法可收敛到启发式联合选择概率矩阵,满足玩家的偏好,从而显著降低了计算成本和保密性问题。特别地,我们通过光子的量子干涉介绍了两种无冲突联合抽样方法,第一个系统允许玩家在具有相同偏好时隐藏其选择,第二个系统则通过 - 在 Graphcore IPUs 内部进行机密的机器学习
本文介绍了 IPU Trusted Extensions (ITX),这是 Graphcore 人工智能加速器中一组实验性的硬件扩展,使得其可以在保证低性能开销的情况下实现强大的机密性和完整性保证,并支持多方培训等功能。
- ACL可证明保密性的语言模型
本文介绍了一种名为 Confidentially Redacted Training(CRT)的方法,该方法涉及到对特定的隐私信息进行保密,从而在训练大型自然语言生成模型时避免意外记忆,实验证明该方法可以在保留隐私的同时保持模型的准确性。
- AAAI通过可复制性教授人工智能公正性、问责性、保密性和透明度
本文介绍了阿姆斯特丹大学关于应用可重现性来教授公正、问责、机密和透明的人工智能课程,通过学生论文组和竞赛的形式,将理论和实践知识有机结合,并提出了相关授课指导方针。
- EMNLP本地 CPU 上运行的极速翻译
为了给予用户控制并展现速度,我们研发了一款名为 translateLocally 的开源翻译软件,可在桌面和笔记本电脑上运行。即使在 10 年前的硬件设备上,translateLocally 实现了类似云端的翻译速度和质量,而且适用于 Li