基于联邦学习的关键词检测
本文使用联邦学习算法在真实用户设备上训练了一种关键词检测模型,采用联合联邦 - 集中式训练补充训练缓存数据域的缺失,以及基于用户反馈信号的信心过滤策略进行联邦蒸馏学习,在离线和在线实验中均取得了显著的质量和用户体验改进。
Apr, 2022
为了保护隐私并满足法规要求,提出了一种个性化的联邦语音转文本框架,通过引入轻量级的客户端调试和服务器交互模块,以减小通信开销;并通过使用全局模型配备的 k 最近邻分类器来捕捉客户端特定的分布偏移以实现个性化,并克服数据异质性。实验证明,该方法在所有语音转文本任务中显著减少通信开销,并有效地个性化全局模型以克服数据异质性。
Jan, 2024
提出使用联邦学习算法来训练生产级的 n-gram 语言模型,以解决在处理隐私敏感数据时面临的数据安全问题,该算法特别适用于便携式设备,如智能手机。同时通过将递归神经网络语言模型近似为能快速部署在设备上进行推理的 n-gram 模型,实现了联邦学习在虚拟键盘等场景下的应用。
Oct, 2019
本研究使用分布式联合学习框架 Federated Learning 对一个智能手机虚拟键盘中的递归神经网络语言模型进行训练,证明了在无需导出用户数据到服务器的情况下,在客户端设备上训练语言模型是可行的,在此应用场景中,使用 Federated Averaging 算法进行的训练可以完成更好的预测记忆,这种联合学习的环境可以保护用户数据隐私,使用分布式训练与集中式聚合来将隐私保护的思路融入到训练过程中。
Nov, 2018
本文介绍了一种名为自适应联邦平均的新型算法,该算法利用隐藏马尔可夫模型来检测参与者在训练期间提供的模型更新质量,并提出一种鲁棒聚合规则以检测和丢弃每次训练迭代中的不良或恶意本地模型更新以及阻止不需要的参与者,从而在处理噪声、故障和恶意参与者时具有更高的鲁棒性和计算效率。
Sep, 2019
本文提出使用联邦学习来训练语音识别模型,并通过对非独立同分布数据分布程度的调整来平衡模型质量和联邦训练计算成本之间的关系,并证明超参数优化和适当使用变分噪声可以弥补非独立同分布数据对模型影响的影响。
Oct, 2020
该论文提出了一种计算效率高且分布式的网络 IoT 音频设备的说话人分离框架。通过提出的联邦学习模型,可以识别对话中的参与者,无需大型音频数据库进行训练。通过余弦相似度的无监督在线更新机制,解决了联邦学习模型的问题。此外,该论文提出的分离系统通过使用 Hotelling 的 t 平方统计和贝叶斯信息准则的无监督分割技术解决了说话人变化检测问题。该方法通过检测到的准静音来偏置说话人变化检测,从而减少漏检和误检率之间的权衡。通过无监督的语音片段聚类,降低了逐帧说话人识别的计算开销。实验结果表明,该训练方法在非独立同分布的语音数据中具有良好的效果。在分割阶段,该方法显著减少了误检和漏检,并降低了计算开销。准确性提高和计算成本降低使该机制适用于分布式 IoT 音频网络中的实时说话人分离。
Apr, 2024
提出了基于联邦式剪枝的方法,以在维持相似性能的同时,在联邦学习的环境下训练模型并解决自动语音识别模型所面临的诸多难点,如隐私问题、计算和通信资源等。
Sep, 2022
本文探讨了如何应对异构设备和用户的挑战,提出了一种新型的聚合算法 FedDist,该算法能够考虑到客户端的差异性而不影响泛化能力,并在人类活动识别普适领域上通过对比测试发现其表现更好。
Oct, 2021