位置:51电子网 » 企业新闻

泰利特推出全球最小3G蜂窝模块UE866

发布时间:2019/7/10 15:32:00 访问次数:94 发布企业:深圳市哲瀚电子科技有限公司

全球高品质M2M(机器对机器)模块、增值服务和解决方案提供商泰利特无线通讯有限公司于近日推出了该公司最小的3G蜂窝模块UE866。该产品大小仅为25毫米x15毫米,拥有强大可靠的固件,可与畅销产品GE866针脚兼容,可以从2G无缝迁移至3G。UE866采用了最新技术,具备长久可用性,构造极为紧凑,非常适合于车载信息服务应用。

同时,泰利特热销产品xE910系列又多了一位新成员:3G UE910。UE910新模块是广受欢迎的xE910产品家族的一员,可选嵌入SIM,适合于对可靠性有极高要求的应用。外形尺寸统一的xE910产品系列包括各种针脚兼容的模块,有数量最多的蜂窝空中接口和频段组合。

泰利特家族产品的统一外观特性可帮助客户实现“一次设计,全球部署”。客户只需进行一次设计和集成,即可在全球或整个地区范围内重复使用产品,在GSM/GPRS、UMTS/HSPA+、1xRTT、EV-DO和LTE网络下,适应不同的数据速率,采用不同的无线技术。在2G即将退出市场的北美,新推出的UE866和UE910可让客户的应用在2G退出后继续高效运行。

可选的嵌入式SIM功能可预先配备泰利特m2mAIR Mobile连接和增值服务,使UE910模块成为立即可用的模块。另外,这两款模块均已m2mAIR云就绪,可让用户立刻使用基于deviceWISE的m2mAIR云应用支持平台。这一无与伦比的硬件、软件和服务的结合,将为寻求降低风险和缩短产品上市时间的M2M厂商和物联网用户提供终极的一站式服务。

在两款新模块中嵌入的Python脚本解释器可让蜂窝引擎中的处理核心运行客户的应用程序,这些程序可直接访问配套的泰利特GNSS模块,以构成一个完整的微型追踪设备。基于业界领先的低耗电量、尺寸和通用输入/输出,UE866非常适合于由电池供电的可穿戴技术行业。这些新产品的推出也标志着泰利特始终致力于服务智能表计、移动POS终端、移动医疗、警报盘和车载信息服务应用领域。

泰利特无线通讯有限公司首席产品官菲利克斯·马夏尔(Felix Marchal)说:“这两款3G模块的推出是我们的一站式服务战略让物联网即插即用的终极表现。通过提供嵌入式处理能力、嵌入式SIM、板载m2mAIR云API接口,以及多样的外形尺寸选择,我们为计划将应用更新至3G和生产新一代微型联网设备的客户提供了终极灵活性。”

据记者观察,如今市面上大多数AI芯片,的确都针对性地配置了专用的硬件加速模块,尤以AI图像处理及视觉识别这类最甚。从早期华为用于智能手机端的麒麟系列芯片、苹果的A11、A12到Nvidia用于汽车领域的Xavier,再到如今市场上不断涌现的众多类型的ASIC,专用的AI加速器似乎已成为一种标准配置,以针对特定应用的图像及视觉数据处理做专业支持。这也形成了一种市场现象,好似如今没有AI加速器的芯片,可能都不太好对外宣称是AI芯片,更不用说拿着这种产品去与客户打交道。

专用AI加速器的配置,目的就是为了迎合当前各细分应用场景对AI计算的不同需求,专注于AI芯片研发的某初创公司负责人告诉记者:“就像现在的智能手机,用户可能对智能拍照和AI图像优化这类的需求会比较多,所以芯片厂商会专门设计相应的加速器去跑特定的图像和视觉算法,保证输出的处理结果能够符合用户的预期,这是当前很多厂商比拼产品优势的很重要的一点;另外,在汽车领域,可能需求又会不一样,车载摄像头每时每刻都要采集大量的图像数据,这对芯片带宽、延迟以及功耗等方面都会有更高规格的要求(毕竟是车规级)。一旦模型的参数越来越大时,其实系统根本没有办法将所有参数都继续保存在片内,这个时候访存必然会成为瓶颈,这恰恰是设计专用的AI加速器的价值所在。”

从AI加速器架构本身的角度来看,如今几乎所有的AI加速器都会设有一个负责完成深度学习中矩阵乘/卷积操作的计算单元,比如以TPU为代表的脉动阵列或者点乘器;以及另一个片上存储单元,主要负责存储每一层的输入/输出及权值。“这种异构协处理器的设计方式,在性能上可以非常灵活,一方面能够使用流水线和并行结构,可以及时跟上算法更新以及性能的需求变化;另一方面,还能够为主处理器和系统存储器提供宽带、低延迟接口,增加SoC所执行的计算量并优化数据结构,降低对带宽的需求,可以将芯片性能提升上百倍的同时降低功耗。”AI芯片初创公司负责人进一步补充到。

固然,专用AI加速模块的配置对提升固定应用场景下芯片的整体性能有很大助力,且能够很大程度上消减算力与功耗之间的矛盾。但有利必有弊,这种方案由于支持的应用场景比较受限,这也进一步损失了芯片在应用端的可扩展性和灵活性。而且,AI算法的演进速度已越来越快,如果未来更多的AI算法流行起来,神经网络逐渐退居幕后,那么芯片端就需要专门针对新的各类算法做专用的加速模块设计,这无疑会进一步提升芯片的成本和开发时间,难以赶上变幻莫测的AI应用市场。因此,针对AI加速器模式会否成为未来AI芯片设计的主流方式,业内也各有观点。

孙鲁毅认为:“现在各家厂商去做AI加速器,本质上还是为了需求。因为需求都是有差异化的,所以在需求还没有被行业达成高度一致化的情况下,芯片一定是趋向于千差万别的。简单说来,比如说在某些AI视觉图像应用中,芯片对前端功耗并不是太敏感,而需要一些非常复杂操作的时候,可能那些操作前端用一个典型的终端AI芯片并不一定能够很好的解决。但是,从另外一个角度来讲,在有些应用中,它是会有一个非常轻量级的操作。总之,在市场还没有明确达成商品化需求的时候,我不认为它会形成一个类似IP的商业模式。”

站在一个AI芯片初创公司的角度来看,记者了解到,像现在不少的芯片创业团队宁愿走开发专用AI加速器路线做自己的ASIC的初衷,其实也是出于对一些细分市场非常看好,这类市场值得他们去投入时间和精力开发相应的AI加速芯片方案。因为对这类公司来说,想在通用芯片市场与英伟达、英特尔这类的芯片巨头进行竞争几乎是不现实的,选择一些细分的市场来开展业务相对会更有优势。细分市场一般都有竞争小、需求高度集中、非常明确的特性,要求就那么多,相对比较标准,很适合利用专用AI加速器构建SoC的模式来做。



另一方面,虽然像高通、英伟达以及英特尔这类芯片大厂,现阶段主要关注的还是一些体量比较庞大的传统类应用,比如云端的服务器,以及像手机和汽车这类具备充分用户基础的边缘侧市场。这点从这三大AI加速器芯片主要玩家近几年的一系列产品发布即可看出,比如英伟达的Tesla V100、Xavier;高通骁龙855中的Hexagon DSP和CV-ISP的AI Engine、以及近期发布的Cloud AI 100;英特尔的低功耗的Movidius加速器以及最新的Cascade Lake Xeon等。

但这并不意味着这些芯片巨头们就对如IoT领域的各种细分型市场漠不关心,根据记者的观察,如今像英特尔、ST以及瑞萨等芯片巨头们已经开始对这类市场展开攻势。譬如去年11月,英特尔发布了两款应用于智慧城市、零售以及健康监护领域的AI加速器方案, 即Intel Movidius处理器阵列Intel Arria10 FPGA;ST也于今年4月26-27日的STM32峰会上,推出了基于STM32CubeMx.AI来优化的DNN加速器;同月,瑞萨电子的可配置AI加速器——DRP也正式发布,利用e-AI进一步强化了MCU的芯片算力。想必未来一段时间内,会有更多的芯片界巨头一拥而上,届时AI加速器市场必将迎来一场空前的战役,对于那些深耕细分领域的中小型芯片厂商来说无疑是莫大的挑战。

总之,无论市场行情如何风云变幻,应用端自始至终需要的都还是一颗兼具高算力和低功耗的AI芯片,而这种特性也会随着AI与IoT应用的逐步融合愈加被市场所重视。因此,对于当下无论是大型还是中小型AI芯片设计厂商来说,如何通过硬件结合算法端的优化来解决芯片算力与功耗之间的矛盾是个中关键,这可能还需要厂商在芯片制程、架构以及成本等多方面、多角度进行考究。AI加速器固然是能够解决功耗与算力矛盾最直接有效的方案,但根据记者的观察,如今不少有实力的AI芯片巨头们已经开始布局和深入这块市场,并针对各类场景推出兼具适用性很强的AI加速器芯片,这必定会对当前大量正努力“挣扎于”细分市场的AI芯片新兴玩家们造成非常大的冲击。因此,留给这类公司们的时间眼看已然不多,如何灵活地依托本地化以及自身对专业领域的精通优势,加速打通各类细分应用市场,赢得更多的客户,将是未来几年这些新兴AI芯片玩家们存活下来的关键。


上一篇:ADXRS642BBGZ-RL

下一篇:AD7147ACPZ-1500RL7

相关新闻

相关型号