嵌入式设备的在线持续学习
本文提出了一个实验设置,以实现对单个任务的自动语音识别进行在线持续学习。 通过使用在线梯度附着内存方法对端到端语音识别模型进行增量模型更新,并结合有选择性的采样策略进行在线持续学习,可以保持类似于重新训练模型的准确性,同时需要较低的计算成本。作者也使用了自监督学习功能(SSL)特征进行了验证。
Jul, 2022
LifeLearner 是一种硬件感知的元可持续学习系统,它在确保高准确性的同时,极大地优化了系统资源(降低内存、延迟和能耗),并成功部署在资源有限的嵌入式平台和物联网设备上,实现了接近最佳的可持续学习性能。
Nov, 2023
通过研究任务增量设置和在线连续设置,本文提出了一些方法以解决神经网络的严重遗忘问题,并在不同的基准测试和学习序列上进行了评估,显示了连续学习技术现在的发展和应用面临的挑战。
Oct, 2019
通过使用模拟真实世界条件的新实验协议,本文验证了关于连续学习的假设,并评估迄今取得的进展。结果表明,考虑到所有方法均表现不佳,明显偏离联合离线训练的上限,这对现实环境中的现有方法的适用性提出了问题。本文旨在通过新的实验协议来倡导采用连续学习方法,以在该领域取得突破。
Feb, 2024
近年来微型机器学习(TinyML)的最新进展为低占用嵌入式设备提供了实时的设备端机器学习能力。然而,TinyML 的实际实施面临着独特的挑战。本研究旨在弥合原型设计的单一 TinyML 模型与开发可靠的生产级 TinyML 系统之间的差距: (1) 在动态变化的条件下,嵌入式设备的操作。现有的 TinyML 解决方案主要集中于推断,使用在强大的计算机上进行离线训练的模型,并部署为静态对象。然而,在实际环境中,由于输入数据分布的演变,静态模型可能性能不佳。我们提出在线学习以实现在受限设备上的训练,并使本地模型适应最新的现场条件。(2) 然而,当前的设备端学习方法在部署条件异构和标注数据缺乏的情况下遇到困难,特别是在多设备上应用。 我们引入联邦元学习将在线学习结合在一起,以增强模型的泛化能力,促进快速学习。本方法通过知识共享确保分布式设备之间的最佳性能。(3) 此外,TinyML 的重要优势是被广泛采用。嵌入式设备和 TinyML 模型优先考虑高效率,导致资源的多样性,从内存和传感器到模型架构都具有多样性和非标准化的表示,因此在扩展 TinyML 系统时管理这些资源变得具有挑战性。 我们提出语义管理以进行模型和设备的联合管理。我们通过一个基本的回归示例演示了我们的方法,然后在三个真实的 TinyML 应用中进行评估:手写字符图像分类,关键词音频分类和智能建筑出席检测,验证了我们方法的有效性。
May, 2024
在线持续学习在不断变化的数据流中直接学习,并存储来自该流中的最少量数据,本文通过对国内外文献中解决在线持续学习问题的方法进行实证评估,重点关注图像分类中的增量类别设置,通过比较在 Split-CIFAR100 和 Split-TinyImagenet 数据集上的平均准确率、遗忘性、稳定性和表示质量的指标,发现大多数方法都存在稳定性和欠拟合问题,但所学习的表示与相同计算预算下的独立同分布训练相当。同时发现基本的经验回放方法,经过适当调整和实施,是一种非常强大的基准方法。我们在 avalanche 框架上发布了我们的模块化和可扩展的代码库来复现我们的结果,并鼓励未来的研究。
Aug, 2023
该研究提出了一种实用的、实时的、基于计算成本的 Continual Learning 方法评估方法,并使用包含 3900 万个时间戳标记的图像的 CLOC 数据集展开了大量实验,发现现有的 CL 方法并不适用于现实场景,并且介绍了记忆取样策略和正则化方法等常用 CL 组件,证实了对计算成本进行考虑是开发在线 Continual Learning 方法的必要基础。
Feb, 2023
提出了一种将连续学习和二进制神经网络结合起来的解决方案,同时在设备上进行训练并保持竞争性的性能,该方法利用二进制潜在重播激活和一种新的量化方案,显著减少了梯度计算所需的位数,实验证实了模型的准确性和对内存需求的明显减少,从而扩展了深度学习在实际场景中的应用。
Jan, 2024
该研究论文提出一种新的基于连续数据流的在线不断学习方法,并建立了一个大规模的在线视觉学习基准测试,研究了梯度下降优化在不断学习中的关键未被观察到的现象,并提出有效的策略来改进深度学习模型的性能。
Aug, 2021