它们与AI指令集架构扩展结合使用在芯片上引领人工智能系统
作者:宋元明清 栏目:财经 来源:TechWeb 发布时间:2021-09-26 16:14 阅读量:8824
内容摘要:最近发布的Tensilicareg,用于加速开发芯片上的人工智能系统,AI平台,包括三个支持产品系列,针对不同的数据需求和设备上的)AI需求进行了优化。 综合学院,TensilicaAI平台覆盖低端,中端和高端市场,提供可扩展,节能的设备...最近发布的Tensilicareg,用于加速开发芯片上的人工智能系统,AI平台,包括三个支持产品系列,针对不同的数据需求和设备上的)AI需求进行了优化。
综合学院,Tensilica AI平台覆盖低端,中端和高端市场,提供可扩展,节能的设备端到端人工智能处理功能,是当今越来越流行的芯片上人工智能系统设计的关键与行业领先的独立Tensilica DSP相比,新支持的AI神经网络引擎每推理能耗降低80%,提供4倍以上的TOPS/W性能,而神经网络加速器(NNA)则通过一站式解决方案提供旗舰级AI性能和能效
对于智能传感器,物联网音频,手机视觉/语音AI,物联网视觉和高级驾驶员辅助系统(ADAS)应用,Tensilica AI平台通过通用软件平台提供最佳功耗,性能和面积(PPA)以及可扩展性Tensilica AI平台产品系列依托于高度成功的Tensilica DSP,该产品已投入量产,在消费,移动,汽车和工业市场的特定应用领域,包括:在内,在芯片上引领人工智能系统
AI Base:包括流行的用于音频/语音的Tensilica HiFi DSP和Vision DSP以及用于雷达/激光雷达和通信的ConnX DSP,它们与AI指令集架构扩展结合使用。
AI Boost:增加了一个匹配的NNE,最初是Tensilica NNE 110 AI引擎,可以从64 GOPS扩展到256 GOPS,提供并发信号处理和高效推理。
AI Max:包括张力利卡NNA 1xx AI加速器系列mdashmdash包括Tensilica NNA 110加速器和NNA 120,NNA 140和NNA 180多核加速器选项mdashmdash该系列集成了人工智能基础和人工智能增强技术多核NNA加速器可以扩展到32个TOPS,而未来NNA产品的目标是扩展到数百个TOPS的所有NNE和NNA产品都包括提高性能的随机稀疏计算,减少内存带宽的运行时张量压缩以及减少模型大小的剪枝和聚类功能全面通用的人工智能软件针对所有目标应用,简化产品开发,并且可以伴随着设计需求的变化灵活轻松地迁移软件包括Tensilica神经网络编译器,支持以下行业标准框架:TensorFlow,ONNX,PyTorch,Caffe2,TensorFlowLite,MXNet,用于自动生成端到端代码,安卓神经网络编译器,实时执行的TFLite委托,以及用于微控制器级设备的TensorFlowLiteMicro
NNE 110 AI引擎和NNA 1xx AI加速器系列支持Cadence的智能系统设计策略,旨在为片上系统的优秀设计提供通用智能支持,预计将于2021年第四季度全面推出。
郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。