- EMNLPHiddenTables & PyQTax: 一种协同游戏和数据集,用于保证表格问答在众多分类体系中的规模和数据隐私
通过创建一个合作博弈模型 "HiddenTables",作者解决了大型语言模型在表格问答任务中遇到的挑战,同时确保数据安全并降低生成成本。
- 当群集学习遇见能量系列数据:基于区块链的去中心化协作学习设计
采用基于区块链的分布式网络的群智学习方案可以解决能源领域数据敏感性引发的安全和隐私问题,提升模型性能、增强数据安全性和隐私保护。
- RAG 不适用于企业
通过结合知识检索,改进大型语言模型的输出的准确性和相关性的检索增强生成(RAG)在企业中的实施面临数据安全、准确性、可扩展性和集成方面的挑战。本文探讨了企业 RAG 的独特需求,调查了当前方法和限制,并讨论了语义搜索、混合查询和优化检索的潜 - 区块链增强的机器遗忘的联邦学习:一种可信赖的方法
整合区块链技术和联邦学习以应对隐私合规和用户数据删除请求的需求,该研究论文探讨了传统遗忘方法的不足之处,并介绍了一种将区块链与联邦学习融合的框架,以确保遗忘请求和行动的不可变记录,并提升数据安全性和隐私保护,以及优化数据管理以保证物联网环境 - PristiQ:云中保护量子学习数据安全的协同设计框架
提出了一个用于保护量子机器学习数据安全的共同设计框架 PrisitQ,通过引入一个带有用户定义安全密钥的附加安全量子位加密子电路,可以显著增强数据安全性,并提出了自动搜索算法来优化在加密量子数据上的模型以保持其性能。该框架在模拟和实际 IB - 提升数字安全:融合密码学与隐写术
应用人工智能(AI)和深度学习(DL)中的生成对抗网络(GANs)优化传统隐写术方法,通过将加密数据嵌入到另一个媒介中,保护通信免受窥探,并提高对检测的防护,从而维护信息的隐私和完整性,解决当前开放数字通信时代数据安全的核心挑战,并为信息安 - 无超参数的医学图像合成用于数据共享和提高特定站点分割
通过 Hyperparameter-Free 分布式学习方法 HyFree-S3 实现的自动医学图像合成、共享和分割可以提高患者隐私和数据安全,并在多种分割设置中(盆腔 MRI、肺部 X 射线、息肉照片)表现出更好的性能,无需手动调整现有的 - 联邦计算 - 建模块、拓展与系统综述
联邦计算是通过分散的设备网络实现合作处理而不损害个体数据隐私的一种方法,该研究调查了 150 多篇论文,总结了联邦计算系统的基本结构、扩展、架构、环境和动机,同时还强调了联邦学习和联邦分析之间的独特差异。
- 利用 LLMOps 驅動的個性化推薦系統最大化用戶體驗
利用 LLMOps 整合个性化推荐系统是管理 LLM 驱动应用的重要进展,这项创新为企业提供机会和挑战,需要专门的团队在处理工程技术复杂性的同时,优先考虑数据安全和模型可解释性。通过利用 LLMOps,企业可以提高大规模机器学习模型的效率和 - 差分隐私的随机游走分散式学习
去中心化学习中采用随机游走算法以节点间的通信图为边更新模型,通过 Pairwise Network Differential Privacy 推导出隐私损失,研究结果表明随机游走算法相较于热点算法在节点邻近情况下提供更好的隐私保证。
- Digger: 大型语言模型训练中侵权内容的检测
介绍了一种用于检测和评估用于大型语言模型的训练数据集中的潜在版权书籍内容的详细框架,并提供了每个内容样本包含的可信度估计。通过模拟实验证实了该框架在识别和解决语言模型训练过程中的内容滥用方面的有效性,同时研究了这些数据集中来自名著的可识别引 - 基于预测的数据安全 DLP 方法
敏感数据泄露是当前企业面临的主要问题之一,本研究提出了一种基于数据统计分析的数据泄露预测和访问权限控制的数据泄露防护解决方案。研究结果表明,该方法具有较高的精确度,在极端数据访问情况下,能够正确地对用户进行分类。
- 信任守护者:通过厂商合作在 AIOps 中导航数据安全
人工智能运维(AIOps)是一个快速发展的领域,应用人工智能和机器学习来自动化和优化 IT 运维。然而,由于数据源可能包含敏感信息,数据安全是在与 AIOps 供应商合作时的重要关注点。本文将讨论不同供应商提供的安全功能以及我们如何采用最佳 - DBFed: 基于领域独立的去偏差联邦学习框架
为了保护数据隐私并解决联邦学习中的不公平问题,本文提出了一种基于无领域特定语言的去偏差联邦学习框架(DBFed),并通过实验验证其在准确性和公平性等方面的优越性。
- 实现机密计算:针对大数据分析和人工智能的安全云架构
介绍了一种安全的云计算架构,描述了如何在保持数据、逻辑和计算在传输过程中的安全、使用和静止状态的情况下,实现工作流打包和调度。
- FedZKP:使用零知识证明的联邦模型所有权验证
本文提出了一种名为 FedZKP 的可证明安全的模型所有权验证方案,它使用零知识证明来保护联邦模型的隐私不被抄袭或滥用,通过理论分析和实证研究证明了 FedZKP 的安全性和鲁棒性。
- 云计算环境下具备信任访问控制的智能资源管理机制
本文提出了一种云计算工作负载管理范式的概念框架,通过虚拟化创建计算机系统的虚拟实例来共享资源并保证数据安全性,包括资源管理单元、安全的虚拟机管理单元和工作量分析器单元等部分。
- IJCAI垂直联邦神经网络的安全前向聚合
该论文研究了 VFL 中一个常用的神经网络框架 SplitNN,并提出了一个综合考虑数据安全和模型性能的神经网络协议 SFA,采用可移除的遮罩以保护原始数据,在实验中证明 SFA 能够同时实现数据安全和高模型性能。
- 工业物联网中基于组客户端选择的数据异构鲁棒联邦学习
本文提出了一个基于云边端的联邦学习框架 FedGS,利用分层结构和梯度二元置换算法选择工厂内的子设备,构建同质化的超级节点参与联邦学习训练,采用复合步骤同步协议协调这些超级节点内部和之间的培训过程,以提高在非独立同分布数据上的工业联邦学习性 - 从分布式机器学习到联邦学习:一项调查
通过对联邦学习的现有作品进行全面调查,提出功能框架和分类学相关技术,以及联邦学习系统的分布式培训,数据通信和安全性。