- EMNLPFreeAL:大语言模型时代的无人主动学习
在大型语言模型时代,我们提出了创新的协作学习框架 FreeAL,通过与 LLMs 交互式提取和过滤任务特定知识,显著提高了 SLM 和 LLM 的零样本性能,无需人工监督。
- SaFL:面部识别系统中具备 Sybil 感知能力的联邦学习
使用 Sybil 感知的联邦学习(SaFL)的新防御方法,通过一种新颖的时变聚合方案最小化 sybil 的影响。
- 混合数据的有效高效联邦树学习
提出了一种名为 HybridTree 的新颖联邦学习方法,能够在混合数据上进行联邦树学习,并通过观察树中的一致分割规则理论上证明了可以将各方的知识融入树的较低层,实验证明 HybridTree 在计算和通信开销较低的情况下能够达到与集中式场 - 协作学习方法成本效益评估:前列腺分割基准测试
比较协作学习中的联邦学习和基于共识的方法,研究在医学图像领域中共识范式作为典型训练任务的替代方案的可行性。
- MM定位和验证:用于改进深伪造检测的双流网络
通过创新的双流网络、多功能模块和半监督补丁相似性学习策略,本研究在深伪检测领域取得了显著的改进,通过六个基准测试表明具有较强的鲁棒性和普适性,并在深伪检测挑战预览数据集上将帧级 AUC 从 0.797 提高至 0.835,将 CelebDF - 隐私保护训练:使用分割学习和同态加密
本论文提出了基于 U 型分割学习的协议,可以在同态加密的数据上进行操作,从而保护用户隐私,并通过实验结果表明,在 U 型分割学习模式中使用同态加密只会将准确率降低 2.65%,同时保护了原始训练数据的隐私。
- 鲁棒协同学习的实用边缘检测
通过开发基于协作学习的模型 PEdger,我们试图解决边缘检测中的深度学习模型计算成本大、模型尺寸大、噪声标注和不准确性等问题,并通过大量实验证明了其在准确性、速度和模型尺寸方面的优越性。
- 使用差分隐私合成双胞胎数据在分布式数据中进行合作学习
通过共享差分私有合成数据,利用合成数据集进行协同学习可以帮助不同方参与者更准确地估计目标统计数据,尤其对包含代表性不足群体数据的参与者,共享合成数据特别有助于做更好的分析。
- AAAICLGT: 协作学习中学生表现预测的图转换器
基于学生活动构建交互图的协作学习图形转换器框架(CLGT)用于评估和预测学生的表现,该框架超越基准模型,区分协作学习中表现差的学生并提供及时的教师干预。
- ICCV优秀的学生具备合作和可靠性:CNN-Transformer 语义分割的协同学习
本文介绍了一种在线知识蒸馏框架,通过选择和交换可靠知识来协同学习基于卷积神经网络(CNN)和视觉变压器(ViT)的模型,以进行语义分割。经过大量实验验证,我们提出的框架在大幅领先于现有的在线蒸馏方法的同时,展示了 ViT 和 CNN 模型之 - 协同学习结构缺失数据的线性模型
我们研究了协作学习最小二乘估计的问题,提出了一种分布式半监督算法 Collab,该算法包含三个步骤:本地训练、聚合和分发。我们的方法在没有标记数据的情况下无需通信,具有良好的通信效率,适用于无法获取标记数据的环境。尽管如此,我们的方法几乎渐 - NCL++:用于长尾视觉识别的嵌套协作学习
该研究提出了一种名为 Nested Collaborative Learning 的方法,它使用协作学习和平衡的在线蒸馏来解决长尾学习问题,并明显优于现有方法。
- 医学图片分析的联邦学习:一项调查
本文综述了联邦学习在医学图像分析中的最新发展,介绍了联邦学习在处理隐私保护和协作学习问题方面的背景和动机,分类总结了现有的联邦学习方法,并提供了目前联邦学习研究的基准医学图像数据集和软件平台的回顾,同时进行了实验以评估联邦学习方法在医学图像 - ICML公平但渐进式相等的协同学习
本篇论文主要探讨基于探索和开发的 incentivization 设计方法,处理在协作学习使用流数据时,公平性和资源分配不平衡问题。该方法确保节点仅根据其贡献程度获得奖励,并且采用渐进平等的机制,保持资源不足节点和资源充足节点的学习效果相等 - ICML去中心化 SGD 和平均方向 SAM 在渐近情况下等价
本文挑战了常规信念,提出了一种完全新的角度来理解分散学习,证明了分散随机梯度下降隐含地最小化了一种平均方向锐度感知最小化算法的损失函数,在常规非凸非 $/beta/$ - 平滑设置下的这种惊人的渐近等价关系揭示了一种本质上的正则化 - 优化 - 基于预测共识的协作学习
本文提出了基于蒸馏的方法,并采用信任加权方案,使用伪标签的无标签辅助数据促进合作学习,以达成对辅助数据的标签共识。我们证明了该方案相对于本地训练能显著提高模型性能,同时也可以识别和缓解对于众多模型的负面影响。在个体数据训练以及模型架构存在异 - 基于协作学习的分析性端到端深度学习算法
该论文提出了一种基于平滑激活函数的全连接神经网络的端到端深度学习收敛分析方法,避免了潜在的抖动问题并且进一步采用协作学习来提高准确性,并通过案例验证了该方法的性能。
- 激励协作学习框架
本文提出 ICL—— 一种激励协同学习的通用框架,研究为什么和何时激励能够提高合作效果,并通过理论和实验结果展示了 ICL 在联邦学习、协同辅助学习和多臂赌博机等情景下的广泛应用。
- 竞争对手之间的战略数据共享
该研究介绍了一种数据分享平衡框架,用于分析数据分享所带来的利益和损失,并研究了市场条件对合作动机的影响。研究结果表明,市场竞争的缩小和更难的学习任务会促进数据分享的合作性。
- 合作学习和优化中激励竞争者诚实行为的研究
本研究通过建立一个模型,并且研究了两个学习任务,即平均值估计和强凸目标的多轮 SGD,提出了一种可以激励诚实通信并确保学习质量的机制,以便对抗具有不诚实更新倾向的竞争者。我们最后在标准非凸联合学习基准测试上验证了我们机制的有效性,并证明了对