TinyML 中基于设备学习的说话人验证
在此研究中,我们提出了一种新颖的设备内学习架构,由预训练的主干网络和学习用户语音特征的用户感知特征学习组成,用于解决无人工场景中部署时需要调整离线训练分类器以提高准确性的问题。我们通过更新用户投影来减小从 30.1% 到 24.3% 的错误率,针对 Google Speech Commands 数据集的 35 类问题中由未见过的发言人引起的领域转移。此外,我们还展示了我们提出的架构在样本和类别稀缺学习条件下的少样本学习能力。带有 23.7k 参数和每个周期的 1MFLOP 的需求,我们的系统适用于针对电池供电微控制器的 TinyML 应用。
Mar, 2024
近年来微型机器学习(TinyML)的最新进展为低占用嵌入式设备提供了实时的设备端机器学习能力。然而,TinyML 的实际实施面临着独特的挑战。本研究旨在弥合原型设计的单一 TinyML 模型与开发可靠的生产级 TinyML 系统之间的差距: (1) 在动态变化的条件下,嵌入式设备的操作。现有的 TinyML 解决方案主要集中于推断,使用在强大的计算机上进行离线训练的模型,并部署为静态对象。然而,在实际环境中,由于输入数据分布的演变,静态模型可能性能不佳。我们提出在线学习以实现在受限设备上的训练,并使本地模型适应最新的现场条件。(2) 然而,当前的设备端学习方法在部署条件异构和标注数据缺乏的情况下遇到困难,特别是在多设备上应用。 我们引入联邦元学习将在线学习结合在一起,以增强模型的泛化能力,促进快速学习。本方法通过知识共享确保分布式设备之间的最佳性能。(3) 此外,TinyML 的重要优势是被广泛采用。嵌入式设备和 TinyML 模型优先考虑高效率,导致资源的多样性,从内存和传感器到模型架构都具有多样性和非标准化的表示,因此在扩展 TinyML 系统时管理这些资源变得具有挑战性。 我们提出语义管理以进行模型和设备的联合管理。我们通过一个基本的回归示例演示了我们的方法,然后在三个真实的 TinyML 应用中进行评估:手写字符图像分类,关键词音频分类和智能建筑出席检测,验证了我们方法的有效性。
May, 2024
综述了 TinyML 的背景、各种支持 TinyML 的工具、利用先进技术进行 TinyML 的最新应用以及未来研究方向,TinyML 是一种嵌入式 ML 技术,使 ML 应用程序能够在多个廉价、资源和功耗受限设备上运行
Mar, 2023
Tiny Machine Learning (TinyML)是机器学习的新领域。通过将深度学习模型应用于无数物联网设备和微控制器(MCU),我们扩大了人工智能应用的范围并实现了无处不在的智能。然而,由于硬件限制,TinyML 具有一定挑战性,因为内存资源有限,难以容纳为云和移动平台设计的深度学习模型;同时,裸机设备对编译器和推理引擎的支持有限。因此,我们需要对算法和系统栈进行共同设计,以实现 TinyML。在此综述中,我们首先讨论 TinyML 的定义、挑战和应用;接下来,我们调查了最近在 MCUs 上 TinyML 和深度学习的进展;然后,我们介绍了 MCUNet,展示了如何通过系统 - 算法共同设计,在物联网设备上实现 ImageNet 规模的人工智能应用;我们还将解决方案从推理扩展到训练,并介绍了小型设备上的训练技术;最后,我们展示了这个领域的未来发展方向。今天的大型模型可能成为明天的小型模型,TinyML 的范围应该随着时间的推移而不断发展和适应。
Mar, 2024
本文提出了一个基于语义 Web 技术的框架,旨在管理 TinyML 模型和 IoT 设备的组合,包括建模信息、组合发现和基准测试,并支持 TinyML 组件的交换和再利用。作者设计了一个神经网络模型本体论,并以 W3C Thing Description 为基础,描述和维护 23 个公共 ML 模型和 6 个 IoT 设备的知识图谱。通过三个案例研究,验证了该框架的有效性和可重复性。
Feb, 2022
文档概述了 2024 年的文本相关说话人验证(TdSV)挑战赛,以分析和探索文本相关说话人验证的新方法。该挑战的主要目标是激励参与者开发单一而具有竞争力的系统,进行彻底的分析,并探索创新的概念,如多任务学习、自监督学习、少样本学习等。
Apr, 2024
本文比较了四种最先进的算法在两个实际应用中的效果,其中之一是基于加速度计数据的手势识别,另一个是图像分类,结果证实了这些系统的可靠性和在微型存储器 MCUs 中部署的可行性。
Sep, 2022
本文介绍了一种嵌入式的、面向小型物联网应用的 Spoken Language Understanding 系统,并证明其性能可以与基于云的商业解决方案相媲美。同时,我们还提供了我们实验使用的数据集,旨在促进 SLU 社区的可重复性和有益性。
Oct, 2018