GPU发展和现状是什么样的?

GPU解决方案


GPU其实就是显卡,是英文Graphics Processing Unit的缩写。大型设备GPU有两个厂商,NVIDIA以及ATI,一个被称为N卡,一个被称为A卡。近几年随着手机等智能设备的快速发展,移动端低功耗GPU越来越受到重视,目前苹果、高通的GPU都比较强悍,华为也在GPU方面加速努力。

ATI显卡

ATI公司成立于1985年,创始人为何国源以及另外两个华人。1985年10月ATI使用ASIC技术开发出了第一款图形芯片和图形卡,1992年4月ATI发布了Mach32图形卡集成了图形加速功能,1998年4月ATI被IDC评选为图形芯片工业的市场领导者,但那时这种芯片还没有GPU的称号,很长的一段时间ATI都是把图形处理器称为VPU,直到AMD收购AT之后其图形芯片才正式采用GPU的名字。

NVIDIA显卡

NVIDIA是一家人工智能计算公司,创立于1993年,创始人及CEO为美籍华人Jensen Huang(黄仁勋)。1999年,NVIDIA首先提出GPU概念,从此 NVIDIA显卡的芯就用GPU来称呼,NVIDIA极大地推动了PC游戏市场的发展,并重新定义了现代计算机图形技术,彻底改变了并行计算。

苹果自研GPU

苹果之前一直都是跟Imagination合作,为了使自己的硬件和软件更加完美的融合,同时不受供应商卡脖子,从A11芯片开始,苹果正式抛弃Imagination而改用自研GPU。目前苹果的GPU性能也是第一梯队的,苹果移动设备的3D显示、AR、大型游戏还是比较出色的。

高通GPU

目前高通骁龙移动平台集成的Adreno GPU是应用较为广泛的,因为大部分国产手机都采用骁龙处理器,Adreno也是可以和同期苹果A系列芯片集成GPU一教高下的存在。Adreno的前身是ATI Imageon系列低功耗GPU,ATI被AMD收购后,AMD将移动设备相关的自从打包卖给了高通。

ARM 的Mali GPU

海思麒麟、三星Exynos、联发科Helio等芯片都采用了ARM的GPU解决方案。这些SOC通常将多个GPU核心封装在一个更大规模的GPU矩阵中,这也导致功耗及发热问题的出现。目前三星和华为应该都在进行自研GPU,走上苹果的道路。

移动GPU现状

目前移动端GPU性能还存在一定短板,随着5G的到来,未来会有更多的应用需要在移动端体现,AR、VR、大型游戏等等,都需要强大的GPU支持。未来谁能掌握最强的GPU技术,谁就能获得更多的优势和关注度,各厂商也都在加大自研投入避免受到供应商的影响。


高性能GPU

除了台式机、笔记本等常见领域的GPU,像人工智能及深度学习领域,数据科学家和研究人员可以用高性能GPU解析 PB 级的数据;自动驾驶领域汽车可以利用强大的GPU,几乎可以在任何驾驶场景中自主观察、思考、学习和导航。另外医疗、教育、自动驾驶、娱乐、影视等众多领域越来越智能化,并且都需要越来越强大的GPU作为技术支持。

总之,无论是移动端还是大型设备,人们对GPU的性能要求越来越高,GPU的发展也会越来越快,越来越智能。


黑蝴蝶168059524


GPU,又称显示核心、视觉处理器、显示芯片,是一种专门在个人电脑、工作站、游戏机和一些移动设备(如平板电脑、智能手机等)上图像运算工作的微处理器,与CPU类似,只不过GPU是专为执行复杂的数学和几何计算而设计的,这些计算是图形渲染所必需的。随着人工智能的发展,如今的GPU已经不再局限于3D图形处理了,GPU通用计算技术发展已经引起业界不少的关注,事实也证明在浮点运算、并行计算等部分计算方面,GPU可以提供数十倍乃至于上百倍于CPU的性能。 GPU的特点是有大量的核(多达几千个核)和大量的高速内存,最初被设计用于游戏,计算机图像处理等。GPU主要擅长做类似图像处理的并行计算,所谓的“粗粒度并行(coarse-grainparallelism)”。这个对于图像处理很适用,因为像素与像素之间相对独立,GPU提供大量的核,可以同时对很多像素进行并行处理。但这并不能带来延迟的提升(而仅仅是处理吞吐量的提升)。比如,当一个消息到达时,虽然GPU有很多的核,但只能有其中一个核被用来处理当前这个消息,而且GPU核通常被设计为支持与图像处理相关的运算,不如CPU通用。GPU主要适用于在数据层呈现很高的并行特性(data-parallelism)的应用,比如GPU比较适合用于类似蒙特卡罗模拟这样的并行运算。

CPU和GPU本身架构方式和运算目的不同导致了CPU和GPU之间的不同,正是因为GPU的特点特别适合于大规模并行运算,GPU在“深度学习”领域发挥着巨大的作用,因为GPU可以平行处理大量琐碎信息。深度学习所依赖的是神经系统网络——与人类大脑神经高度相似的网络——而这种网络出现的目的,就是要在高速的状态下分析海量的数据。例如,如果你想要教会这种网络如何识别出猫的模样,你就要给它提供无数多的猫的图片。而这种工作,正是GPU芯片所擅长的事情。而且相比于CPU,GPU的另一大优势,就是它对能源的需求远远低于CPU。GPU擅长的是海量数据的快速处理。 工业与学术界的数据科学家已将GPU用于机器学习以便在各种应用上实现开创性的改进,这些应用包括图像分类、视频分析、语音识别以及自然语言处理等等。尤其是深度学习,人们在这一领域中一直进行大力投资和研究。深度学习是利用复杂的多级「深度」神经网络来打造一些系统,这些系统能够从海量的未标记训练数据中进行特征检测。 虽然机器学习已经有数十年的历史,但是两个较为新近的趋势促进了机器学习的广泛应用:海量训练数据的出现以及GPU计算所提供的强大而高效的并行计算。人们利用GPU来训练这些深度神经网络,所使用的训练集大得多,所耗费的时间大幅缩短,占用的数据中心基础设施也少得多。GPU还被用于运行这些机器学习训练模型,以便在云端进行分类和预测,从而在耗费功率更低、占用基础设施更少的情况下能够支持远比从前更大的数据量和吞吐量。 将GPU加速器用于机器学习的早期用户包括诸多规模的网络和社交媒体公司,另外还有数据科学和机器学习领域中一流的研究机构。与单纯使用CPU的做法相比,GPU具有数以千计的计算核心、可实现10-100倍应用吞吐量,因此GPU已经成为数据科学家处理大数据的处理器。


飘舞的风信子


GPU 原来就是为了加速 3D 渲染的,后来被拿过来做计算。
▪ 现在 GPU 可以支持通用的指令,可以用传统的 C 和 C++,还有Fortran 来编程。
▪ 现在单个高端 GPU 的性能已经达到了传统多核 CPU 集群的性能
▪ 有的应用通过 GPU 加速相比传统的多核 CPU 来说可以达到 100X 的加速。对某些特定应用来说 GPU 还是最适合。


分享到:


相關文章: