Jan, 2024

联邦蒸馏中的对数攻击

TL;DRFederated Distillation (FD) 是一种新颖且有前景的分布式机器学习范式,其中利用知识蒸馏来促进更高效和灵活的跨设备知识传输。我们引入了一种为 FD 量身定制的攻击方法 FDLA,其通过操纵 FD 中的逻辑通信来显著降低客户端模型的性能,通过误导了对私有样本的区分能力,有效地威胁 FD 设置的客户端模型准确性。我们的发现强调了在 FD 环境中采取强大的防御机制来减轻此类对抗威胁的重要性。