04.04 全新起点!英特尔发布Agilex FPGA,采用10纳米制程

作者 | 胡巍巍

出品 | CSDN(ID:CSDNnews)

四月,草长莺飞、桃花烂漫。如此茂盛的季节,给科技行业的新品推出,更加增添了几分喜气。

4月3日,英特尔宣布推出全新产品家族——英特尔® Agilex™ FPGA。


全新起点!英特尔发布Agilex FPGA,采用10纳米制程 | 极客头条

英特尔® Agilex™ FPGA


据了解,英特尔® Agilex™ 家族结合了基于英特尔10纳米制程技术构建的FPGA结构和创新型异构3D SiP技术,将模拟、内存、自定义计算、自定义I/O ,英特尔eASIC和FPGA逻辑结构集成到一个芯片封装中。

利用带有可复用IP的自定义逻辑连续体,英特尔可提供从FPGA到结构化ASIC的迁移路径。一个API提供软件友好型异构编程环境,支持软件开发人员轻松发挥FPGA的优势实现加速。

而在3月28日的英特尔2019中国媒体纷享会上,英特尔就已经“曝光了”10纳米制程技术,并宣布了其最新推出的“六脉神剑”(英特尔的六大支柱结构):软件、安全、互连、内存&存储、架构、制程&封装。


全新起点!英特尔发布Agilex FPGA,采用10纳米制程 | 极客头条

英特尔六大技术支柱



随后,英特尔中国研究院院长宋继强、英特尔亚太研发有限公司总经理卢炬和英特尔子公司Mobileye大中华区总经理童立丰,在群访中回应了英特尔六大支柱结构中关注性较大的一些问题。


全新起点!英特尔发布Agilex FPGA,采用10纳米制程 | 极客头条


从左至右,英特尔亚太研发有限公司总经理卢炬、英特尔中国研究院院长宋继强、英特尔子公司Mobileye大中华区总经理童立丰




六大支柱架构大小核工作的负载分配机制


在回答问题“英特尔六大支柱有架构大小核的东西,这个是不是和ARM有类似之处?大小核工作的负载分配机制是怎么样的”时,宋继强表示,他介绍的不是大小核,而是大小的Chiplet。

大小核通常只能在一个系统集成芯片(SoC)里面放进去不同的、比较小的、低功耗的IP核。

而大的、高性能的IP核,可以称之为大小核,它被设计在一个SoC里,因此叫做一体化SoC。而这,也是一种异构在一个芯片的内部实现。

Atom本身已经是一个芯片的内核,只是没有封装,比较大的Sunny Cove也是一个高性能的10纳米芯片。

实际上,英特尔是把不同的芯片和没有封装的内核,通过封装工艺组合在一起。这样就可以带来很高的灵活度。

此外,封装技术用了很多互连加速技术,因此可以保证带宽和速度,跟你放在一个SoC里面的差别不会大。



制程在未来芯片的智能提升上扮演的角色


谈到英特尔六大支柱中的制程,在未来芯片的智能提升上扮演的角色,宋继强称,目前的进展和以前发布的消息一样。

不过他表示,英特尔的10纳米芯片发展得非常好,今年还要出几款芯片基于10纳米的技术芯片和通讯芯片,这些芯片在2019的CES大会上都已经发布。

而7纳米、5纳米是继续按照正常的方式在演进,今年没有特意的披露。宋继强还表示,制程仍然继续可以做微缩,但是微缩的速度不会像以前那么快。

此外,不光是3D封装,3D本身也可以做组件,同时还会有一些新材料加进去,以便提升性能、降低功耗。

说千道万,最重要的还是要靠架构,靠对一些数据处理的充分理解,要不然就是用一个笨的方法去解决问题,如果比别人用一个简单方法去解决问题,就会导致功耗过高。



边缘计算的出发点不是给CPU减负


对于最近大火的边缘计算,宋继强表示,边缘计算是网络方面的概念,它不是专门用于给CPU减负,而是给终端减负。

或者说有些计算需要延迟,这时就不能靠云端去支撑的,所以就把它放到边缘做。

我们可以把它看成是在更合适的位置去把数据处理了,然后返回给客户端备。

另外,边缘计算里面本身仍然是可以像一个小服务器一样去定制里面的功能,你可以有CPU、可以有FPGA加速,更可以有DSP加速和ASIC加速,这都是很灵活的。



如何理解超异构的“超”字


对于英特尔推出的超异构,宋继强是这么解释“超”的:以往的异构计算,从上世纪80年代开始有各种处理器设计,一类是人们称为一体化SoC设计,就是把不同的IP核放在一个芯片里。

这样做的好处是,最后做出来的东西功耗和性能具有最优比,但它要求设计人员对应用负载的理解一定要够深,并且值得投入大量时间和资金去做这一款芯片。

但是,它的灵活度不够高,要求它去实现这个功能是可以的,可是要想加东西,就得再等一个SoC的周期。

灵活度高的是板卡机集成的计算比如有一个CPU主板,再加上FPGA的版,或者加上DSP的板,就像以前的基站一样,也是异构。

只要是通过不同架构的处理单元,去完成同一个任务,就都是异构计算,这是通常的处理方式。

所以我们会看到,一体化有一体化的好处,板卡有板卡的好处,但是板卡的弱点是体积大,板之间连接的功耗和带宽都不是最优的。

当下的环境中,数据种类非常多样,有工厂产生的数据、自动驾驶汽车产生的数据、还有基站产生的数据。

而很多地方有着不同的数据,这时数据处理最优的方式,就不是CPU加上GPU了,还得加别的。

有时,我们还想有更灵活和更小的体积,这时超异构应运而生,其“超”就超在可以把很多现有的、不同节点上已经验证得挺好的Chiplet,集成在一个封装里。

在这个层级下,可以保证体积是小的,如果能把它的功耗控制得再低一些,就可以享有更高的带宽和更短的延迟。

从成本上来看,一定比板集组合便宜很多,说不定比SoC还便宜。而如果SoC都做10纳米,可能并不便宜。



英特尔如何继续发挥摩尔定律的经济效应


1965年,英特尔创始人之一Gordon Moore,提出了以自己名字命名的摩尔定律。

其内容为:当价格不变时,集成电路上可容纳的元器件的数目,约每隔18-24个月便会增加一倍,性能也将提升一倍。

换言之,每一美元所能买到的电脑性能,将每隔18-24个月翻一倍以上。这一定律揭示了信息技术进步的速度。

40多年中,半导体芯片的集成化趋势,一如摩尔的预测,该定律也推动了整个信息技术产业的发展,进而给千家万户的生活带来了变化。

而在回顾几十年来半导体芯片业的进展、并展望其未来时,信息技术专家们认为,以后摩尔定律可能还会适用。

在本次媒体纷享会上,宋继强也提到要继续发挥摩尔定律的经济效益。

他表示,摩尔定律发表的时候就是两个点,一个是微缩,让芯片的密度上升;另一个是单位成本可以买到越来越多的性能。

但是,目前只靠微缩的话,效果比较慢。所以英特尔现在要靠架构创新,这样是为什么会有不同架构处理的芯片,就是因为要把它们组合使用。

除此之外,CPU对某些数据处理是有效的,对某些数据是低效的,如果再加上GPU,对于矢量和矩阵来说是可以的,但是对于空间来说就不行了。

所以要通过比较,去组合不同种类的芯片,这其中也需要系统级的思考问题,包括研发成本、运营成本以及电量的消耗。



后记


1971年,英特尔推出全球第一个微处理器。48年后的今天,英特尔已经早已开拓出了更广阔的天地,其利用云计算的能力、物联网的无处不在、内存及编程解决方案方案方面的最新进展、以及不间断的5G连接的前景,欲为人们解决更多的挑战。

英特尔在其领域内,虽有竞争对手,但是总体来看,英特尔的胜利相对较多。这家已经快五十岁的公司,以后还会有哪些推陈出新呢?这个问题,就交给时间吧!


分享到:


相關文章: