位置:51电子网 » 电子资讯 » 行业分析

AI芯片市场未来分析

发布时间:2017/2/13 10:17:47 访问次数:511


51电子网公益库存:
AD7712AN
AD7824KN
AD7859AS
AD8027AR
AD8037AN
AD8066ARZ
AD8067ARTZ
AD8180AR
AD8513AR
AD8517ART
AD8541ART
AD8552ARZ-REEL7
AD8571ARZ
AD8571ARZ-REEL7
2016年也成为了芯片企业和互联网巨头们在芯片领域全面展开部署的一年:先有cpu芯片巨头因特尔年内三次大手笔收购人工智能和gpu领域企业;后有谷歌宣布开发自己的处理系统,而苹果、微软、脸书和亚马逊也都纷纷加入。

领跑者英伟达(nvidia)因其在人工智能领域的优势使其成为了资本市场的绝对宠儿:在过去的一年中,曾经以游戏芯片见长的nvidia股价从十几年的稳居30美元迅速飙升至120美元。

当资本市场都在犹豫是否人工智能风口使得英伟达股价虚高时,2月10日,英伟达发布2016年第四季度的财报显示,其营收同比增长55%,净利润达到了6.55亿美元,同比增长216%。

“正当intel、微软等巨头投资人工智能为基础的芯片技术时,英伟达已经以q4财报显示,这家已经在人工智能领域投资将近12年的芯片企业已经开始就此收获可观的盈利。”资深技术评论家therese poletti在其财报发布后指出。

tractica llc估计,由于深度学习项目产生的硬件花费将从2015年的4360万美元,上升到2024年的41亿美元,而企业的相关软件花费将同期从1.09亿美元上升到100亿美元。


据英伟达最新公布的年报,其最主要的业务领域均出现了两位数以上的增长。除了其一直占有领先优势的游戏业务增长之外,其更多的涨幅事实上来自于数据中心业务和自动驾驶两大全新业务板块。

年报数据显示,数据中心业务有138%的增长,而自动驾驶有52%的增长。

整个英伟达财报里最具有说明力的内容,因为数据业务和自动驾驶的增长根本上是人工智能和深度学习的发展所激发的。美国计算机硬件分析师表示。

目前的深度学习领域,把神经网络投入实际应用要经历两个阶段:首先是训练,其次是执行。从目前的环境来看,训练阶段非常需要处理大量数据的gpu(图形处理器,下同),也就是以游戏和高度图形化的应用做图像渲染起家的英伟达领先的领域;而在转型阶段则需要处理复杂程序的cpu,也就是微软十几年来领先的领域。

“英伟达目前的成功事实上代表了gpu的成功,它正是最早的gpu领先者之一。”行业分析师表示。

深度学习神经网络尤其是几百上千层的神经网络,对高性能计算需求非常高,而gpu对处理复杂运算拥有天然的优势:它有出色的并行矩阵计算能力,对于神经网络的训练和分类都可以提供显著的加速效果。

搭载gpu的超级计算机已经成为训练各种深度神经网络的不二选择,比如google大脑早期就是使用nvidia的gpu做深度学习。“我们正在搭建一款带有跟踪功能的摄像装置,因此需要找到最适合的芯片,gpu是我们的首选。”欧盟ar初创企业quine ceo 表示。

谷歌、facebook、微软、twitter和百度等互联网巨头,都在使用这种叫做gpu的芯片,让服务器学习海量的照片、视频、声音文档,以及社交媒体上的信息,来改善搜索和自动化照片标记等各种各样的软件功能。一些汽车制造商也在利用这项技术,开发可以感知周围环境、避开危险区域的无人驾驶汽车。

世界上目前约有3000多家ai初创公司,大部分都采用了nvidia提供的硬件平台。


投资者和芯片制造商关注着所有互联网巨头的一举一动。仅仅以英伟达的数据中心业务为例,在很长一段时间以来,该公司一直为谷歌提供数据服务。

英伟达并非gpu的唯一领先者,巨头intel和amd都在这一领域有着不同的优势。

2016年11月,intel公司发布了一个叫做nervana的ai处理器,他们宣称会在明年年中测试这个原型。如果一切进展顺利,nervana芯片的最终形态会在2017年底面世。这个芯片名称基于intel早前购买的一个叫做nervana的公司。按照intel的人所说,这家公司是世界上第一家专门为ai打造芯片的公司。

intel公司披露了一些关于这个芯片的一些细节,按照他们所说,这个项目代码为“lake crest”,将会用到nervana engine和neon dnn相关软件。这款芯片可以加速各类神经网络,例如谷歌tensorflow框架。

芯片由所谓的“处理集群”阵列构成,处理被称作“活动点”的简化数学运算。相对于浮点运算,这种方法所需的数据量更少,因此带来了10倍的性能提升。

lake crest利用私有的数据连接创造了规模更大、速度更快的集群,其拓扑结构为圆环形或其他形式。这帮助用户创造更大、更多元化的神经网络模型。这一数据连接中包含12个100gbps的双向连接,其物理层基于28g的串并转换。


在上述芯片巨头进行gpu领域的提升之外,有更多的企业在试图引发一轮全面的颠覆。其代表为谷歌在2016年宣布将独立开发一种名为tpu的全新的处理系统。

tpu是专门为机器学习应用而设计的专用芯片。通过降低芯片的计算精度,减少实现每个计算操作所需的晶体管数量,从而能让芯片的每秒运行的操作个数更高,这样经过精细调优的机器学习模型就能在芯片上运行得更快,进而更快地让用户得到更智能的结果。google将tpu加速器芯片嵌入电路板中,利用已有的硬盘pci-e接口接入数据中心服务器中。

google tpu、gpu并用,这种情况仍会维持一段时间,gpu可执行绘图运算工作,用途多元;tpu 属于asic,也就是专为特定用途设计的特殊规格逻辑ic,由于只执行单一工作,速度更快,但缺点是成本较高。

除了上述提到的谷歌,微软也在使用一种叫做现场可变编程门阵列(fpga)的新型处理器。

这个fpga 目前已支持微软bing,未来它们将会驱动基于深度神经网络——以人类大脑结构为基础建模的人工智能——的新搜索算法,在执行这个人工智能的几个命令时,速度比普通芯片快上几个数量级。有了它,你的计算机屏幕只会空屏23毫秒而不是4秒。

第三代原型中,芯片位于每个服务器的边缘,直接插入到网络,但仍旧创造任何机器都可接入的fpga池。这开始看起来是office 365可用的东西了。最终,project catapult准备好上线了。另外,catapult硬件的成本只占了服务器中所有其它的配件总成本的30%,需要的运转能量也只有不到10%,但其处理速度却是原来的2倍。

有一些公司,例如nervada和movidius,模拟gpu的平行模式,但是专注于更快速地移动数据,省略图像所需要的功能。其他公司,包括使用了被称为“true north”的芯片的ibm公司,开发了由神经元、突触等其他大脑特征所启发的芯片设计。

由于深度学习和人工智能未来的巨大前景,各大巨头都在尽量争取技术上的优势。如果这其中的某家公司,如谷歌,用一种新型芯片替换掉现有芯片,这基本上就相当于颠覆了整个芯片行业。


很多人持有与谷歌同样的观点,在人工智能的遥远未来,gpu没有代替cpu,而tpu也不会取代gpu,芯片市场将出现更大的需求和繁荣。

人们越来越看好人工智能的前景及其潜在的爆发力,而能否发展出具有超高运算能力且符合市场的芯片成为人工智能平台的关键一役。由此,2016年成为芯片企业和互联网巨头们在芯片领域全面展开部署的一年。而在这其中,英伟达保持着绝对的领先地位。但随着包括谷歌、脸书、微软、亚马逊以及百度在内的巨头相继加入决战,人工智能领域未来的格局如何,仍然待解。

在2016年,所有人都看到了人工智能的前景和其潜在的爆发力,但不管是alphago还是自动驾驶汽车,要想使得任何精妙算法得以实现,其基础是硬件的运算能力:也就是说,能否发展出超高运算能力又符合市场需求的芯片成为了人工智能平台的关键一役。



51电子网公益库存:
AD7712AN
AD7824KN
AD7859AS
AD8027AR
AD8037AN
AD8066ARZ
AD8067ARTZ
AD8180AR
AD8513AR
AD8517ART
AD8541ART
AD8552ARZ-REEL7
AD8571ARZ
AD8571ARZ-REEL7
2016年也成为了芯片企业和互联网巨头们在芯片领域全面展开部署的一年:先有cpu芯片巨头因特尔年内三次大手笔收购人工智能和gpu领域企业;后有谷歌宣布开发自己的处理系统,而苹果、微软、脸书和亚马逊也都纷纷加入。

领跑者英伟达(nvidia)因其在人工智能领域的优势使其成为了资本市场的绝对宠儿:在过去的一年中,曾经以游戏芯片见长的nvidia股价从十几年的稳居30美元迅速飙升至120美元。

当资本市场都在犹豫是否人工智能风口使得英伟达股价虚高时,2月10日,英伟达发布2016年第四季度的财报显示,其营收同比增长55%,净利润达到了6.55亿美元,同比增长216%。

“正当intel、微软等巨头投资人工智能为基础的芯片技术时,英伟达已经以q4财报显示,这家已经在人工智能领域投资将近12年的芯片企业已经开始就此收获可观的盈利。”资深技术评论家therese poletti在其财报发布后指出。

tractica llc估计,由于深度学习项目产生的硬件花费将从2015年的4360万美元,上升到2024年的41亿美元,而企业的相关软件花费将同期从1.09亿美元上升到100亿美元。


据英伟达最新公布的年报,其最主要的业务领域均出现了两位数以上的增长。除了其一直占有领先优势的游戏业务增长之外,其更多的涨幅事实上来自于数据中心业务和自动驾驶两大全新业务板块。

年报数据显示,数据中心业务有138%的增长,而自动驾驶有52%的增长。

整个英伟达财报里最具有说明力的内容,因为数据业务和自动驾驶的增长根本上是人工智能和深度学习的发展所激发的。美国计算机硬件分析师表示。

目前的深度学习领域,把神经网络投入实际应用要经历两个阶段:首先是训练,其次是执行。从目前的环境来看,训练阶段非常需要处理大量数据的gpu(图形处理器,下同),也就是以游戏和高度图形化的应用做图像渲染起家的英伟达领先的领域;而在转型阶段则需要处理复杂程序的cpu,也就是微软十几年来领先的领域。

“英伟达目前的成功事实上代表了gpu的成功,它正是最早的gpu领先者之一。”行业分析师表示。

深度学习神经网络尤其是几百上千层的神经网络,对高性能计算需求非常高,而gpu对处理复杂运算拥有天然的优势:它有出色的并行矩阵计算能力,对于神经网络的训练和分类都可以提供显著的加速效果。

搭载gpu的超级计算机已经成为训练各种深度神经网络的不二选择,比如google大脑早期就是使用nvidia的gpu做深度学习。“我们正在搭建一款带有跟踪功能的摄像装置,因此需要找到最适合的芯片,gpu是我们的首选。”欧盟ar初创企业quine ceo 表示。

谷歌、facebook、微软、twitter和百度等互联网巨头,都在使用这种叫做gpu的芯片,让服务器学习海量的照片、视频、声音文档,以及社交媒体上的信息,来改善搜索和自动化照片标记等各种各样的软件功能。一些汽车制造商也在利用这项技术,开发可以感知周围环境、避开危险区域的无人驾驶汽车。

世界上目前约有3000多家ai初创公司,大部分都采用了nvidia提供的硬件平台。


投资者和芯片制造商关注着所有互联网巨头的一举一动。仅仅以英伟达的数据中心业务为例,在很长一段时间以来,该公司一直为谷歌提供数据服务。

英伟达并非gpu的唯一领先者,巨头intel和amd都在这一领域有着不同的优势。

2016年11月,intel公司发布了一个叫做nervana的ai处理器,他们宣称会在明年年中测试这个原型。如果一切进展顺利,nervana芯片的最终形态会在2017年底面世。这个芯片名称基于intel早前购买的一个叫做nervana的公司。按照intel的人所说,这家公司是世界上第一家专门为ai打造芯片的公司。

intel公司披露了一些关于这个芯片的一些细节,按照他们所说,这个项目代码为“lake crest”,将会用到nervana engine和neon dnn相关软件。这款芯片可以加速各类神经网络,例如谷歌tensorflow框架。

芯片由所谓的“处理集群”阵列构成,处理被称作“活动点”的简化数学运算。相对于浮点运算,这种方法所需的数据量更少,因此带来了10倍的性能提升。

lake crest利用私有的数据连接创造了规模更大、速度更快的集群,其拓扑结构为圆环形或其他形式。这帮助用户创造更大、更多元化的神经网络模型。这一数据连接中包含12个100gbps的双向连接,其物理层基于28g的串并转换。


在上述芯片巨头进行gpu领域的提升之外,有更多的企业在试图引发一轮全面的颠覆。其代表为谷歌在2016年宣布将独立开发一种名为tpu的全新的处理系统。

tpu是专门为机器学习应用而设计的专用芯片。通过降低芯片的计算精度,减少实现每个计算操作所需的晶体管数量,从而能让芯片的每秒运行的操作个数更高,这样经过精细调优的机器学习模型就能在芯片上运行得更快,进而更快地让用户得到更智能的结果。google将tpu加速器芯片嵌入电路板中,利用已有的硬盘pci-e接口接入数据中心服务器中。

google tpu、gpu并用,这种情况仍会维持一段时间,gpu可执行绘图运算工作,用途多元;tpu 属于asic,也就是专为特定用途设计的特殊规格逻辑ic,由于只执行单一工作,速度更快,但缺点是成本较高。

除了上述提到的谷歌,微软也在使用一种叫做现场可变编程门阵列(fpga)的新型处理器。

这个fpga 目前已支持微软bing,未来它们将会驱动基于深度神经网络——以人类大脑结构为基础建模的人工智能——的新搜索算法,在执行这个人工智能的几个命令时,速度比普通芯片快上几个数量级。有了它,你的计算机屏幕只会空屏23毫秒而不是4秒。

第三代原型中,芯片位于每个服务器的边缘,直接插入到网络,但仍旧创造任何机器都可接入的fpga池。这开始看起来是office 365可用的东西了。最终,project catapult准备好上线了。另外,catapult硬件的成本只占了服务器中所有其它的配件总成本的30%,需要的运转能量也只有不到10%,但其处理速度却是原来的2倍。

有一些公司,例如nervada和movidius,模拟gpu的平行模式,但是专注于更快速地移动数据,省略图像所需要的功能。其他公司,包括使用了被称为“true north”的芯片的ibm公司,开发了由神经元、突触等其他大脑特征所启发的芯片设计。

由于深度学习和人工智能未来的巨大前景,各大巨头都在尽量争取技术上的优势。如果这其中的某家公司,如谷歌,用一种新型芯片替换掉现有芯片,这基本上就相当于颠覆了整个芯片行业。


很多人持有与谷歌同样的观点,在人工智能的遥远未来,gpu没有代替cpu,而tpu也不会取代gpu,芯片市场将出现更大的需求和繁荣。

人们越来越看好人工智能的前景及其潜在的爆发力,而能否发展出具有超高运算能力且符合市场的芯片成为人工智能平台的关键一役。由此,2016年成为芯片企业和互联网巨头们在芯片领域全面展开部署的一年。而在这其中,英伟达保持着绝对的领先地位。但随着包括谷歌、脸书、微软、亚马逊以及百度在内的巨头相继加入决战,人工智能领域未来的格局如何,仍然待解。

在2016年,所有人都看到了人工智能的前景和其潜在的爆发力,但不管是alphago还是自动驾驶汽车,要想使得任何精妙算法得以实现,其基础是硬件的运算能力:也就是说,能否发展出超高运算能力又符合市场需求的芯片成为了人工智能平台的关键一役。


热门点击

推荐电子资讯

最差劲科技合作品盘点
最差劲的科技合作品。 LG普拉达: 看到这个不得... [详细]
版权所有:51dzw.COM
深圳服务热线:13692101218  13751165337
粤ICP备09112631号-6(miitbeian.gov.cn)
公网安备44030402000607
深圳市碧威特网络技术有限公司
付款方式