人文艺术 > CPU、GPU、NPU、TPU、SOC,哪种芯片的技术门槛最高?

CPU、GPU、NPU、TPU、SOC,哪种芯片的技术门槛最高?

2020-11-07 16:36阅读(60)

CPU、GPU、NPU、TPU、SOC,哪种芯片的技术门槛最高?:技术门槛,都不低。相比之下,越是新出现的芯片种类,其技术门槛就越高。芯片的门槛要看几个方面,包括算法

1

技术门槛,都不低。相比之下,越是新出现的芯片种类,其技术门槛就越高。

芯片的门槛要看几个方面,包括算法设计、材料工艺,加工工艺和封装测试。有时设计算法能做好,但是加工环节被卡了脖子也会失败。另外就是应用生态。有了芯片要在实际产品上应用,之后才能验证和改进。这点是国内芯片厂商最困难的。在进口芯片的挤压下,敢于试用国产芯片,需要很大的勇气、魄力。

从国内目前各公司技术水平看,能达到国际前沿水平的,目前可能只有寒武纪,其他公司还在努力,希望能早日突破。

下面把几个概念通俗介绍一下:

CPU,全称是Central Processing Unit,即中央处理器。

这个缩写相信大家最熟悉,它是计算机系统的“大脑”

CPU主要包括运算器、控制单元、若干寄存器、高速缓存器和它们之间通讯的数据、控制及状态的总线。

它的工作思路是:存储程序,按顺序执行。它最擅长于逻辑控制。由于CPU需要大量的空间去放置存储单元和控制逻辑,计算能力就受限制,所以就有了GPU出场。

目前CPU技术上没有革命性的技术变革,只要我们按照科学的程序,一步步努力,不冒进,早晚能赶上。

GPU全称是Graphics Processing Unit, 即图像处理器;

GPU主要解决并行运算问题。举个生活中的例子。超市收银台前,顾客有100人排队。如果只有一个收银员,那么即使他操作速度再快,也要大家排队耗时间。如果有50个收银员同时收款,很快就解决问题。GPU解决的就是这个问题。这个问题在图形图处理时问题最突出,故改变算法规则,由GPU芯片来解决。但GPU不能独立工作,必须由CPU控制。

NPU全称是Neural network Processing Unit, 即神经网络处理器;

NPU,神经网络处理器,在电路层模拟人类神经元和突触,并且用深度学习指令集直接处理,一条指令对应一组神经元的任务。由于实现存储和计算一体化,故计算效率大大提高。

TPU全称是Tensor Processing Unit, 即张量处理器;

是一种为通过基于神经网络运算能力的一种ASIC,即专用集成电路。他把微处理器、模拟IP核、数字IP核和存储器集成在一个芯片上。这是解决运算速度的另外一个思路,就是专项任务,专项解决。它通常根据特定运算任务开发,指向特定用途。比如人机大战中的AlphaGo。

SOC全称是System on a Chip,其本质上就是上面说的ASIC。可以叫作系统级芯片,或者叫片上系统

2

当然是SOC了。

SOC叫做片上系统,别的都是xx处理器,而只有SOC叫做系统。一块普通的soc能把CPU,GPU,NPU都集成进去。

以骁龙845为例,这块SOC集成了基带,CPU,GPU,DSP,ISP,音频单元,系统内存和安全单元。其内部结构的复杂程度远超桌面CPU或者显卡核心。

除了SOC之外,GPU是最复杂的。第一,GPU规模巨大,英伟达的GV100核心有大概211亿个晶体管,而英特尔6700K则只有17.5亿晶体管。第二,GPU驱动是最复杂的,目前来看世界上能解决GPU驱动问题的厂商只有英伟达。

CPU并不复杂,只要你的指令集和架构能有配套的系统就够了。TPU和NPU是协处理器,他们在专业用途上很强但并不复杂。

3

在设计和制造上,这些都属于集成电路,难度都很高,相对而言,CPU、GPU、NPU、TPU属于集成电路逻辑的芯片,CPU的逻辑更完整,其他几个在各自领域各有所长,SOC属于集成芯片的芯片,设计更加系统。

CPU,Central Processing Unit,中央处理器。

GPU,Graphics Processing Unit, 图像处理器;

NPU,Neural network Processing Unit, 神经网络处理器;

TPU,Tensor Processing Unit, 张量处理器;

如果CPU、GPU、NPU、TPU比作一栋摩天大楼的话,SOC好比总部基地,所以SOC≥CPU≥GPU、NPU、TPU

4

先更正你的问题,你列的几个都不属于同一范畴,cpu是中央处理器,gpu是图形处理器,npu和tpu属于ai处理器。soc是系统集成芯片,是一种架构,可以将你说的前面几种几种集成到一块芯片上,这样做可以节省很多空间。

5

soc的门槛其实是最高的,毕竟soc是个整合架构,涵盖但不限于前面几个的一种。

但是排除了soc,门槛最高的就是tpu和npu。因为这两个涉及到人工智能这个新领域,而目前能做的基本数据就寥寥数十家(包括谷歌和华为),可见其技术难度。

而CPU与GPU门槛反而是最低的,基本上套个壳都能用,极端点的就像麒麟,mtk,澎湃等基本上拿来就用的。

CPU和GPU门槛是低,但是要做得好做到能赚钱,同时还兼具高性能,那难度比npu和tpu难度更大。目前能做到这些的用四根手指头能数的出来:高通,AMD,nvdia,Intel。(三星苹果因为不外卖,无法知晓在CPU这一块是否有赚钱,因此不在范围之内)

6

有个问题已经有同学说了,soc与其他四个不在同一个范畴,不参与讨论。前面四个,其实考量的维度也很多。如果一定要排序的话,个人认为在同样的设计制造水平下,应用范围越广频度越高的,需要支持的逻辑单元种类和特性越多,从稳定性上讲难度越大,稳定是商用的极其重要的指标,性能和功耗还能逐步改进。因此大体上是CPU>GPU>NPU≈TPU

7

{!-- PGC_VIDEO:{\"thumb_height\": 360, \"thumb_url\": \"8dfa00015cf9778cd1c5\

8

SoC。

别看Intel,NV很牛,说实话,他俩技术真一般。为什么这么说呢? 其实他俩主要是靠先发优势积累下来的专利来维持自己的优势,技术上,并不是有多么牛。最重要是案例就是,Intel和NV都做过SoC,全都失败了,根本原因没有能力。

Intel当初做移动x86芯片,整合基带,DSP,基带等,做不了,最终实在中国展讯的帮助下,才做成了SoC(不信自己去查新闻),但是后来,Intel一直做不好功耗和SoC的兼容性,后来没有了下文。

NVIDIA,也做过SoC,大家还记得小米3的首发芯片就是NV家的,还是功耗,兼容和基带做不好,NV专门收购了世界唯三的CDMA基带公司(另外两家是高通和威盛),但是基带集成这个问题,NV做了3年,没有任何效果,最后NV放弃移动芯片,专做pad和汽车了(不用基带,不用严格控制功耗)。

所以,不要感觉Intel和MV有多高大上,他们只是做了三四十年,熟悉了,还有老外比较擅长构建专利墙。

这也为中国打击美国半导体产业提供了一个方法: 我不保护你的专利,(x86随便用吧,GPU专利也随便用)。。。有人说,这不很流氓吗? 那我问你使用君子手段对付流氓管用,还是流氓手段对付流氓好用? 落后者,不要总想者保护知识产权,或者对内对外俩政策,等自己牛逼了,再严格保护知识产权

此外,还要挖他的人。一个团队一个团队的挖。

9

问这个问题明显外行,比大小呢?不管是CPU GPU WPU XPU的,都是芯片。简单点说,芯片分设计和工艺两个部分。设计,就是芯片架构嘛,架构服务于功能,什么PU就是这么分出来的嘛。大家知道的架构比如arm,mips,x86等。接下来就是工艺,架构设计了还在纸上,出产品要生产。生产就要靠工艺,比如大家天天看到的几nm,光刻机等。

说起门槛来,设计上,CPU GPU门槛最高,因为架构要服务的功能比较综合,电路,指令设计非常复杂,就算设计出来了,也要有系统软件商用。之前有国芯号称自助知识产权的架构,其实抄了mips。现在国产芯片用的架构也都是国外的arm,mips这些。至于NPU,TPU相对服务功能简单,就深度学习那块功能,相对而言门槛较低。

工艺嘛,就体现工业综合水平了,是一个长期过程。

最后,这里只是通俗的说说,砖家就别看了!

10

这几个名词代表了地球上最强大的几个芯片公司:华为、苹果、英特尔、高通、英伟达、谷歌、amd。

华山论剑没有最高只有更高!

CPU是PC机的专用处理器,GPU是主要用于图像的处理芯片、NPU、TPU都是专用的人工智能芯片,SOC是用于移动的一揽子系统功能集成芯片。

目前来看,CPU这块英特尔和AMD你追我赶,各不相让,全球除了它们,就没有一家能在这个竞赛中取得好成绩,门槛最高。

SOC是针对移动的集成芯片,华为、苹果、紫光、高通、三星等都有自已的芯片组,目前来看,华为的集成度稍领先,但并不是不可超越的,所以这一块相对来说难度较低一点。

而GPU图像处理芯片这块,主要的竞争对手是AMD和英伟达,各有千秋,我国的科创板公司寒武纪和华为也有解决图像处理的专用芯片,在某些领域超过英伟达的产品,所以这一块的竞争方兴未艾。

而NPU、TPU是不同公司对人工智能深度学习芯片的提法,我就知道不少公司都有自已的芯片和算法。

因为这块的芯片功能并不是很全面,很多都是对自已的独家技术进行优化,使用性和广泛程度,远远小于CPU\GPU和SOC,所以这一块我认为门槛并没有那么大。

CPU摩尔定律,英特尔一路狂奔

说起CPU,它的历史可就老长了,从一开始人们发明计算机就出现了CPU,最初的CPU是用在大型机和工业机器上的,IBM执其牛耳。

后来,由于芯片的集成度下降,开始出现小型PC机,IBM当时并不是很看好CPU的未来,就把相关的CPU制造技术和专利给了英特尔,让英特尔一路前奔。

英特尔也很争气,不仅开发了出了性能赶超小型机的CPU,而且它建设了自已的芯片工厂,不停提高芯片集成度,增加芯片功能。

英特尔的联合创始人戈登·摩尔,就提出了“摩尔定律”,即每过18个月,计算机的集成度就增加一倍,芯片的能力也增加一倍。

经过摩尔定律的熏陶之后,英特尔一路狂奔,把其它的竞争对手都踩在身下,只有一个AMD,紧紧咬住英特尔不放松,到最近才有超越的机会。

所以,通用计算机芯片的高门槛怀,让英特尔保持利润从80年代一直到今天,它的市值至今还有几千个亿美元。

而在通用CPU这方面,我国也有相应的龙芯,用在银河计算机等大型机上,以确保我们的科技不会被卡脖子。

但是由于成本高企,我们生产的芯片还不具备在国际上大规模竞争的能力,主要是自用为主。

随着移动互联网的发展,PC的芯片慢慢不再显得那么重要,人们把眼光投入了移动互联网的芯片。

移动的CPU,相对来说其性能和能力要求就不那么高了,因为在移动端,主力是SOC

低功耗打造麒麟芯,严要求首出SOC

说过了CPU,就讲到SOC芯片组了。

我们知道移动的手机体积小,散热难,不可能象PC那样安装一个大型风扇散热,所以传统的X86技术不太好用,必须打造专门的移动芯片。

现在主流的几家移动芯片厂商采用的都是基于AMR的低功耗芯片信令集和架构,苹果的A14、麒麟9000,以及高通的965 +是流行的几大芯片,当然,还有紫光的虎贲。

但是要做到SOC集,就是在一个芯片中既包括通信基带,又有计算、深度学习,不仅需要极同的集成度,还需要很丰富的通信经验,和设计水平。

这一点,我们的麒麟9000做到了,它也是全球首发的5G SOC芯片。

苹果因为缺乏基带技术,它的A14芯片必须外挂高通基带,因此功耗稍大,带宽也不是很理想。

高通理论上也可以做出5G SOC芯片,但是不知道它是基于成本的考虑,还是好货要留在后面加价,并没有推出。

所以,移动的SOC芯片虽然重要,但并不是组合起来就不能用,苹果的A14也获得了不少好评。

可以说在这个领域苹果、华为、高通、紫光等你追我赶,既有技术水平,也有商业成本的比拼,目前还没有谁敢说自已样样第一。

所以,我认为这个领域的竞争还刚刚开始,门槛还没有那么高!

GPU英伟达一骑绝城、AMD紧随其后

GPU主要用于图像处理,视频编解码和并行计算。

这一块目前英伟达是当然的王者,英伟达的黄老板也是华人,最近正准备收购AMD,让我们先祝他一路好运。

每年很多大型的游戏赛,用得都是通用的GPU卡,好的图像卡,不容易卡顿,杀起LOL来得心应手,是很大的GPU市场。

而这几年兴起的区块链、虚拟币,也消耗了很多GPU卡,因为GPU的并行计算,正好可以对各路挖矿算法优化,是采矿的当然之选。

目前来看,英伟达第一,AMD的GPU卡紧随其后。

我们国内的寒武纪,开发了MU270卡,也有很好的编解码性能,很多方面不亚于人后,只是支持的PC厂商不多,还远不被人们所知。

而华为,据说也准备开发自研的图像通用卡,由于它的达芬奇架构的深度学习芯片组深为人所知,既便宜又低功耗,所以我也很看好华为在GPU的逆袭。

NPU和TPU

NPU和TPU用于人工智能深度学习,是一些较为小众的提法,其中TPU是谷歌提出的芯片组,主要用于它的Tensorflow深度学习框架,看来谷歌也希望免费的开源政策能够帮它卖硬件增加收入。

NPU的全称是神经网络计算芯片,主要用于人工智能计算,但目前主要的人工智能计算还是图像智能分析。

从这个角度来看,NPU和GPU有一定的相似之处,必竟华为的达芬奇NPU就用在各种摄像机上,不仅做智能分析,也可以用来编解码。

同样,寒武纪、依图等国内的人工智能公司,也都推出自已的NPU芯片组,用于特殊的领域。

而苹果的A14芯片叫也说有自研的NPU芯片。

所以针对SOC集成芯片来说,NPU或TPU只能算里面的一个组件而已。

最后说了这么多U,都是属于芯片的范畴,哪怕是最简单的NPU,也不是一个普通的厂商所能做出来的。

通过芯片的集成化,可以很好地降低能耗和成本,更好地促进我们的科技进步和创新。

让我们对这些牛B的企业致敬。

最后总结一下相关的企业和水平:

技术门槛第一梯队:

CPU:英特尔,AMD

SOC:华为,高通,

GPU:英伟达,AMD

TPU、NPU:因为通用性不好,各家都说自已不错,很难进行统一比较,门槛相对不明显。

诗云:

摩尔定律三十年,

芯片技术月月新,

你方制造电脑强,

我来创造移动端,

英特尔争CPU,

华为SOC第一,

若问利润谁家高,

英伟黄总笑哈哈。