cpU为什么不做成象一张扑克牌或一张A4纸那么大?

用户6534293489481


最大的CPU有多大,我不知道,但以前英特尔出了一个叫Pentium II的处理器,就和现在的小显卡差不多大小,虽然不如A4纸,可比扑克牌大多了。

最新的AMD Ryzen线程撕裂者,它也不小,比我们常见的CPU至少大了两倍有余:

所以说,厂商也不是没有从面积上作文章,目前高端CPU的面积都普通CPU要大,比如常见的英特尔Core i3核心面积是126mm²,而高端的Core i9-79xx的核心面积达到了322mm²甚至有484mm²之多。

确实,单纯增加处理器的面积,按题主的意思是,可以塞进相同数量但体积更大的晶体管,这样对工艺的要求就不那么高了,你需要更高的性能堆积更多的晶体管,处理器的面积只管增加就好了,扑克牌大小不够,还有A4大小,A4大小不够,还有A3大小……

可惜这样的后果是不堪重负,我们不得不为处理器设计更大的机箱,为它准备更高规格的散热装置,现在的散热器肯定是不行了,怎么也得准备庞大复杂的水冷散热系统,带来的一系列体积、噪音等负面影响。然而这些还不是最重要的,最重要的成本。

科技进步的标志之一就是不断降低成本,如果不追求工艺上的进步,芯片的成本一直居高不下,科技前行那真是举步维艰,而且,更先进的半导体工艺能提高晶体管的开关频率,让处理器的性能得到真正的提升,而功耗还会更低,我们的处理器能做得更小更快,散热手段也更容易。

所以,

为什么不做那么大的CPU,一是成本问题,二是能耗比问题,如果真按题主所想所行,试问,你现在有手机用吗?有这么多智能设备驱使吗?


超能网


很快就会做到扑克牌那么大了,不过价格就会成几倍几十倍的增长。

IT行业是一个最没有创造力的行业,善于炒各种冷饭。一会细说。

因此在100年来基本上再没有超越冯诺伊曼模型和图灵算法理论的理论成果了。

而在目前支持IT行业飞速发展的就是摩尔定律——芯片上的晶体管每18个月翻一番、价格每18个月降低50%。

因此我们就看到了CPU的的速度和效率不断提高的同时价格也随之不断的下降。在1994年的一台电脑大约2万多元算是一个基本配置,而现在的计算机基本配置的机器大约3000元就可以买到了。——拜摩尔定律所赐。


很多之前无法通过密集计算的项目或者需要高成本的项目都陆续反复的复活了。

举例:“大数据”,在数据处理的过程中,最早的就是文本表格,后面发展出关系型数据库,再后面发展了一个数据集市,再后面叫做数据仓库,最终叫做大数据。本身大数据的概念在文本表格的时候就被提出来了,苦于当时的计算机运行速度只有0.25Mhz根本就处理不了大数据规模的数据信息,于是业界就苦苦挨着直至最后计算机的速度和计算机的成本都可以满足大数据的模型了,推出一个叫做大数据的业务,其实从文本表格到大数据的中间过程都是适应当时的计算能力的而非是当时发明的新技术。


但摩尔定律从Pentium 的110纳米开始向下一路走来走到了现在的7纳米,以及明后年的4纳米技术,那么摩尔定律实际上还可以继续在存活5年的时间。到了1纳米就基本上是原子的尺度了,不可能继续再将原子分开。毕竟我们不是三体人,还没掌握质子的二位展开蚀刻计算机的能力。

当摩尔定律失效的时候我们唯一能做的时期就是不情愿的扩大芯片面积才能让芯片容纳更多的门电路。在那时CPU的核心面积就会不断的增长。直至做的比扑克牌还要大。


在当时我们见到IBM 的POWER 8 cpu的时候有的弟兄惊呼——好大的半块砖。

几乎一个手掌大小的CPU早在14年就出现了。

至于为什么没有这么大的民用CPU出现还是由于成本。

目前我们生产CPU都是靠切成晶圆的硅片进行光蚀刻的。所谓的多少纳米制程就是蚀刻CPU的电路之间的距离。厂商不断的缩小制程为的就是在相同面积是刻出更多的CPU。目前一个14寸晶圆大约可以生产3000-5000个CPU,如果只生产1000个的情况下,实际上CPU生产厂商的所有工序和成本都没有降低。这就导致需要用1000个CPU的价格分摊原来需要5000个cpu分摊的成本造成单价的上升。

因此缩小cpu内线路的距离就成了厂商降低成本和提高利润的驱动力——摩尔定律。


但当摩尔定律失效的时候,为了做更加复杂的芯片,那么厂商就只好不断的增加单一芯片的面积了——同一晶圆切出的CPU变少,成本上升价格提高。


最终专业的CPU会变得比扑克牌还要大很多。当然价格也会回归到几十万的价格等级上去不过作为消费者基本上别担心,这种CPU不会在民用场合使用的。

后面民用场合基本上会开始使用FPGA(现场可编程控制器)技术,来替代一些CPU的功能。目前苹果、华为的一些手机中就已经有了FPGA,用作分担CPU的工作。早晚会有一天FPGA会做到承担手机中大部分工作。


军武数据库


我并非专业人士,但我也知道为什么不做那么大。

首先cpu的功能决定了它,内部的线路运行距离越短,数据的交换越快,特别是负担了电脑的核心的核心的CPU,线路每差距0.00001cm,运行速度就能提升几倍。所以,内部越精细越好。

其次,大家都知道AMD被英特尔压制了几十年,AMD最大的诟病就是CPU能煎蛋。CPU最高温度都能上100了,为什么这么热,就是因为,CPU承载了繁重的数据处理,内部的线路在强大电流量之下,持续高温。那么你想象一下,假如你再把工艺降低,线路加粗,cpu能炸油条也不是梦吧?




超神奇游戏社


首先是体积没必要做那么大,CPU核心也就大拇指指甲盖那么大的范围,当然,厂家可以将体积做成扑克牌大小,也可以做成A4纸大小,正如汽车一样,一辆2.0T涡轮增压排量的汽车,做成UFO飞碟外观可不可以?厂家当然可以做到,但有没有必要呢,即使做了,排量也还是2.0T,发动机参数不变的,CPU做大了主板就会更大,厂家成本会上升,主板大了机箱就得大,带来了一连串的连锁反应。当然,有些高端CPU核心确实比普通CPU要大一点,比如i9就会比i3要大。这个是科技进步的标志


喜欢岛和大海


我来说两句,其实在286,386等等个人电脑开始普及的时候,人们就先天的接受了机箱甚至计算机的大小和尺寸,但是我们希望在同等的大小的情况下,具有更多的功能,更强劲的计算力,谁也不会选择粗大笨重的笔记本代替现在小巧的笔记本电脑,除非有性能上的要求,才会选择台式机,或者超算,所以才有了后来的18个月,晶体管翻一番的结论,我就觉得用户体验,或者用户需求是推动又小,性能又高的趋势的根本动力,未来的人工智能和机器人发展也是这种推动力的直接结果。


分享到:


相關文章: