登录

MCU AI/ML - 弥合智能和嵌入式系统之间的差距

2025-07-31 10:44 来源:芯科科技

人工智能(AI)和机器学习(ML)是使系统能够从数据中学习、进行推理并随着时间的推移提高性能的关键技术。这些技术通常用于大型数据中心和功能强大的GPU,但在微控制器(MCU)等资源受限的器件上部署这些技术的需求也在不断增加。

本文将探讨MCU技术和AI/ML的交集,以及它如何影响低功耗边缘设备。同时将讨论在电池供电设备的MCU上运行人工智能的困难、创新和实际应用场景。

AI/ML和MCU:简要概述

人工智能创建的计算机系统可以执行类似人类的任务,例如理解语言、寻找模式和做出决定。机器学习是人工智能的一个子集,涉及使用算法让计算机从数据中学习并随着时间的推移不断改进。机器学习模型可以寻找模式、排序对象、并从示例中预测结果。

MCU使人工智能和机器学习在边缘设备上成为可能,可以在多个方面发挥着重要作用。

基于MCU运行的边缘AI/ML的一些应用场景包括:

关键词识别:无需云连接即可识别特定词语或短语(例如语音命令)

传感器融合:结合来自多个传感器的数据,做出比使用单一传感器解决方案更明智的决策

异常检测:检测传感器数据中可能指示故障、错误或威胁的异常值或异常模式,以进行预测性维护或质量控制

目标检测:在摄像头或其他传感器捕获的图像或视频中识别和定位感兴趣的目标(例如人脸、行人、车辆)

手势识别:在摄像头或其他传感器捕获的图像或视频中解读人类手势(例如手部动作、面部表情、身体姿势),以改善人机交互

AI/ML在MCU上的挑战

深度学习模型,特别是深度神经网络(DNN),已经成为计算机视觉和自然语言处理等复杂任务中不可或缺的一部分。然而,它们的计算需求是巨大的。这种资源密集型模型对于日常设备来说是不切实际的,尤其是那些由边缘设备中的低功耗MCU驱动的设备。深度学习模型的复杂性必然会增长,随着深度神经网络变得越来越复杂,其规模会不断扩大,使它们与MCU上有限的可用计算资源不相容。

什么是TinyML?

TinyML指的是为在资源受限的设备上部署人工智能而优化的机器学习模型和技术。这些设备在边缘运行,在那里生成数据,并在本地执行推理。TinyML系统通常在低功耗MCU上运行,对在节点本地收集的数据执行推理。推理是人工智能模型的关键时刻,测试它在训练中所学知识的应用能力。本地推理使MCU能够直接执行人工智能模型,无需依赖外部服务器或云服务即可做出实时决策。

在AI/ML环境中进行本地推理至关重要,原因如下:

资源限制:许多嵌入式设备,特别是那些使用电池供电的设备,其内存、处理能力和能源效率等资源有限。传统的通用MCU由于其有限的处理能力和内存、有限的能源资源或缺乏片上加速功能而难以有效地执行人工智能任务。本地推理支持这些资源受限的设备在不消耗过多功耗的情况下执行人工智能工作负载,以提高效率和性能。

用户体验增强:举例而言:支持人工智能的电子猫门。通过训练它来区分猫和其他物体,它只能为授权的猫打开门。在这里,本地推理通过确保安全性和便利性来改善用户体验,而不需要RFID项圈等其他硬件。

效率和性能:GPU通常用于大规模人工智能部署,因为它们可以并行执行许多流程,这对高效的人工智能训练至关重要。然而,对于小型嵌入式应用来说,GPU成本高昂,并且超出了功耗预算。人工智能优化的MCU具有专用架构,通过为人工智能工作负载提供更好的性能和能效来实现平衡。在Silicon Labs(芯科科技)提供的新型无线SoC和MCU中,已包括一个矩阵矢量处理器来为其AI/ML功能提供一部分支持。这种专用的硬件加速器旨在增强AI/ML算法或矢量数学运算的性能,以缩短推理时间并以更低的功耗执行这些关键任务。

总之,边缘的本地推理可以实现实时决策、减少延迟、增强安全性、为电池供电的设备提供人工智能功能,并增强用户体验,使其成为现代计算系统的关键组成部分,同时满足资源限制。

芯科科技引领边缘AI/ML解决方案

芯科科技作为智能、安全物联网无线连接领域的开拓者,正在致力于将AI/ML带到边缘。我们对创新的承诺带来了突破性的解决方案,使MCU等资源受限的产品具有更丰富的智能功能。

针对TinyML优化的器件

EFR32xG24、EFR32xG28和EFR32xG26等无线MCU系列产品均结合了78 MHz的ARM Cortex®-M33处理器、高性能射频、精密模拟性能,以及一个AI/ML硬件加速器,为开发人员提供了一个部署边缘智能的灵活平台。同时,这些产品还支持广泛的无线物联网协议,具有市场领先的安全性和最佳的射频性能/能效比。

当今的开发人员经常被迫为在边缘部署AI/ML而在性能或能耗方面付出高昂的代价。xG24、xG28和xG26系列作为首款内置专用AI/ML加速器的超低功耗产品,可降低整体设计复杂性,从而减轻这些代价。这种专用硬件旨在处理复杂的计算,与仅采用固件的方法相比,推理速度提高8倍,能效提高6倍,与基于云的解决方案相比,性能更高。硬件加速器的使用减轻了主应用MCU推理的负担,留出更多的时钟周期为用户的应用提供服务。

简化AI/ML开发的工具

构建、测试和部署机器学习所需算法的工具与运行这些算法的MCU同样重要。通过与TensorFlow、SensiML和Edge Impulse等TinyML领域的行业翘楚合作,芯科科技同时为初学者和专家提供了选择。开发人员可以将这一新AI/ML工具链与芯科科技的Simplicity Studio开发环境配合使用,创建可从各种连接设备中获取信息的应用程序,从而做出智能的机器学习驱动的决策。

芯科科技提供各种工具和资源来支持机器学习应用:

机器学习应用:该开发平台支持嵌入式机器学习(TinyML)模型推理,由TensorFlow Lite for Microcontrollers (TFLM)框架提供支持。其计算库包含一组利用机器学习的嵌入式应用程序。

机器学习工具包(MLTK):这是一个带有命令行实用程序和脚本的Python包,可帮助开发者为芯科科技的嵌入式平台开发机器学习模型。它包括从命令行界面或Python脚本执行机器学习操作、确定机器学习模型在嵌入式平台上的执行效率以及使用Google TensorFlow训练机器学习模型的功能。

芯科科技还提供TinyML解决方案,作为机器学习工具包的一部分。该工具包包括TinyML基准测试使用的几种模型。这些模型可在芯科科技GitHub上找到,包括异常检测、图像分类和关键词识别。

AI/ML驱动的边缘设备为我们如何与周围环境互动开辟了新的视野,它们很快将以令人惊叹的方式改变我们的生活。芯科科技处于TinyML创新的最前沿,能够以前所未有的方式将这些功能带入低功耗、联网的边缘设备。

点击此处,了解更多关于芯科科技的EFR和EFM MCU平台是如何针对边缘AI/ML进行优化。

相关新闻

编辑精选