您的位置: > 协会动态 > 行业动态
作者:管理员 发布时间:2022-04-29 来源:管理员
近年来广泛兴起并得到高度关注的xpu将会从云端走向嵌入式应用;在一些应用场景中,还需要针对算法和标准的演进和升级对硬件进行再编程,那么诸如achronix公司的speedcore嵌入式fpga(efpga)这样的ip产品也会从服务器和数据中心市场走入嵌入式ai/ml应用,推动采用不同硬件加速器的异构计算模式向前发展。
随着嵌入式处理器的能力不断提升,超小型化的硬件加速器不断被引入,以及原厂及商业的开发环境和工具不断出现,嵌入式人工智能/机器学习(ai/ml)技术在近几年得到了快速的发展。同时因为这些技术与千姿百态的各种应用需求十分贴近,因此正在进入差异化发展的新空间,未来其增长速度将可以比肩甚至超过需要强大资源体系的、立足良好通信条件的和基于云的人工智能应用。
人工智能并不是一个近几年才提出的名词,但是在近几年随着谷歌alphago战胜人类围棋世界冠军等事件的推动,才使诸如卷积神经网络、深度学习和机器学习等技术走进了大众的视野,同时也使“人工智能=数据 算法 算力”的模型得到广泛的认同。
其结果是,在很多人的印象中,人工智能和机器学习就是在英特尔最新服务器处理器或者英伟达的gpu加速模组的基础上的全新的、巨大的算法应用,特别是人工智能的训练更是一场资源消耗战,成为了进入门槛很高的新兴领域,传统上设计mcu或者soc的芯片企业基本上与高贵的ai/ml无缘。
但是人们很快发现在非常领先的人工智能企业所提供的威九国际免费进入的解决方案中,不仅包括诸如自动驾驶路况分析、自然语言处理、快速医学影像识别和高频金融交易等复杂功能,也包括更大量车牌识别、智能音箱唤醒词识别、便携智能健康监测设备、人脸识别开机和智能家居安防等lite级别的应用。
在市场强烈需求的拉动下,随着谷歌的开源tensorflow lite嵌入式机器学习架构和类似产品的推出,以及诸如imagination公司的powervr神经网络加速器(nna)等硬件加速器在移动设备或嵌入式设备上商用,各种功耗和成本更低的,以及更加小巧的嵌入式ai/ml功能威九国际免费进入的解决方案不断涌现。
通过分析,北京华兴万邦管理咨询有限公司认为:嵌入式ai/ml的广泛兴起,带来了与传统ai技术以“人工智能=数据 算法 算力”为中心的发展范式不同的新模式,针对特定或者一些应用和功能的嵌入式ai/ml的重点已转向“生态 集成 定制”。下面我们从融入物联网生态、硬件和商用开发工具集成、以及基于risc-v开发定制处理器这三个方面来进行分析:
为嵌入式ai/ml带来最新matter协议和物联网大生态
silicon labs(亦称“芯科科技”)是一家全球领先的物联网芯片、软件和威九国际免费进入的解决方案供应商,该公司在业界以支持最全面的物联网通信协议和提供优异的产品性能而著名,其客户包括智能家居、智慧城市、工业与商业、智慧医疗和能源等领域内的领导厂商。
今年初,该公司宣布推出其bg24和mg24系列2.4 ghz无线soc,它们不仅都支持最新的matter物联网通信协议,还分别支持蓝牙和多协议操作,同时还为电池供电的边缘设备和应用提供了人工智能/机器学习功能,并带来了高性能无线功能和物联网大生态。
bg24和mg24无线soc代表业界前沿的生态、功能和技术组合,其中包括支持无线多协议、长电池寿命(低功耗)、机器学习、以及面向物联网边缘应用的安全性。silicon labs为它们提供的全新软件工具包支持开发人员通过一些常用的工具套件(如tensorflow),来快速构建及部署ai/ml算法。
为了实现ai/ml算力,bg24和mg24系列率先集成了专用的ai/ml加速器,帮助开发人员部署人工智能或机器学习功能并解决功耗难题。这种专用硬件旨在快速高效地处理复杂计算,内部测试显示其性能提升最高达4倍,能效提升最多达6倍。由于机器学习计算是在本地设备上而不是在云端进行,因此消除了网络延迟,加快了决策和行动。
此外,bg24和mg24系列还具有silicon labs产品组合中最大的闪存和随机存取存储器(ram)容量,使其可支持多协议、matter以及用大型数据集训练ml算法。这些芯片载有获得了psa 3级认证的secure vaulttm物联网安全技术,可为门锁、医疗设备和其他需小心部署的产品提供所需的高安全性。
高集成度嵌入式ai/ml配合领先商用开发工具
iar systems是嵌入式开发软件和服务的全球领导者,其领先的iar embedded workbench?工具链已在全球获得广泛采用。iar systems的开发工具为alif semiconductor?高集成度的ensemble?和crescendo?系列芯片提供支持,打造了基于人工智能的、高效的微控制器(mcu)和融合处理器,赋能下一代嵌入式互联应用。
对更多功能的集成代表了嵌入式ai/ml的一个发展方向,alif semiconductor的这些高能效产品系列提供多达4个处理内核,以及人工智能/机器学习(ai/ml)加速、多层安全、集成的lte cat-m1和nb-iot连接、全球导航卫星系统(gnss)定位等功能,从而使其应用范围得到了大幅扩展。
为了让这些功能得到更好的发挥,就需要利用诸如iar systems的arm开发工具这些在行业中已被验证过的、领先的编译器技术,对代码大小和速度都进行优化,另外还提供高性能的调试功能,从而为企业提供了一个很好的平台。
2021年11月,iar systems宣布其最新版本的iar embedded workbench for arm?增加了对arm cortex?-m55处理器的支持。该处理器是一款支持ai技术的cortex-m系列处理器,带来了节能的数字信号处理(dsp)和机器学习功能。
双方此次合作可以支持ensemble或crescendo器件的应用开发商利用iar embedded workbench? for arm开发工具链,以实现高性能的且强大的代码优化功能,充分发挥器件的ai/ml潜能,同时又尽可能地保持能源效率。
risc-v使嵌入式ai/ml可针对边缘应用实现定制
多样化的需求是嵌入式应用的特征之一,mcu供应商长期以来是通过不同的处理器内核与外设搭配来满足用户的个性化需求。而risc-v的兴起,带来了定制处理器这一新的潮流,这一潮流将继续延伸到嵌入式ai/ml领域,并得到业内领先厂商的支持。
codasip就是一家提供领先的risc-v处理器ip和高级处理器设计工具的供应商,为ic设计者提供risc-v开放isa的所有优势,以及定制处理器ip的独特能力。codasip在今年2月推出了两款专为定制处理器而优化的最新低功耗嵌入式risc-v处理器内核l31和l11。
基于这些新内核,客户可以很方便地使用codasip studio工具去定制处理器设计,以支持诸如神经网络、ai/ml等具有挑战性的应用,包括例如物联网边缘计算等极小型化的、功率受限的应用。codasip的内核可定制功能是其成功的基石,目前全球已有超过20亿颗处理器使用了codasip的ip。
codasip l31/l11嵌入式内核运行在谷歌的tensorflow lite for microcontrollers(tflite micro)上,并利用codasip studio工具定制一类全新的嵌入式ai内核,可为ai/ml计算密集型和内部资源有限的嵌入式系统等应用提供足够的性能。不同应用对器件的需求也有巨大的差异,而且现有的处理器并不能很好地加载ai/ml应用。
codasip可提供“创造差异化设计”模式,意味着使用其studio工具的客户,可以根据其特定系统、软件及应用程序的要求来定制处理器。通过将
tflite micro)、risc-v定制指令以及codasip处理器设计工具三者相结合,就可以为嵌入式的、高效率的边缘神经网络处理功能带来低延迟、高安全性、快速通信和低功耗等优势。
展望未来:新的应用与新的技术都将不断涌现
随着产业的发展,嵌入式ai/ml技术和应用都将得到进一步的发展,基于华兴万邦提出的“生态 集成 定制”新范式,以及不断推陈出新的边缘应用,我们可以看到在未来一些新的技术值得高度关注,比如新的、适合边缘应用的硬件加速器和安全技术。
以硬件加速器为例,近年来广泛兴起并得到高度关注的xpu将会从云端走向嵌入式应用;在一些应用场景中,还需要针对算法和标准的演进和升级对硬件进行再编程,那么诸如achronix公司的speedcore嵌入式fpga(efpga)这样的ip产品也会从服务器和数据中心市场走入嵌入式ai/ml应用,推动采用不同硬件加速器的异构计算模式向前发展。
来源:中国安全防范产品行业协会
下一篇:刷脸+聚合,移动支付迎来新形态