GPU發展和現狀是什麼樣的?

GPU解決方案


GPU其實就是顯卡,是英文Graphics Processing Unit的縮寫。大型設備GPU有兩個廠商,NVIDIA以及ATI,一個被稱為N卡,一個被稱為A卡。近幾年隨著手機等智能設備的快速發展,移動端低功耗GPU越來越受到重視,目前蘋果、高通的GPU都比較強悍,華為也在GPU方面加速努力。

ATI顯卡

ATI公司成立於1985年,創始人為何國源以及另外兩個華人。1985年10月ATI使用ASIC技術開發出了第一款圖形芯片和圖形卡,1992年4月ATI發佈了Mach32圖形卡集成了圖形加速功能,1998年4月ATI被IDC評選為圖形芯片工業的市場領導者,但那時這種芯片還沒有GPU的稱號,很長的一段時間ATI都是把圖形處理器稱為VPU,直到AMD收購AT之後其圖形芯片才正式採用GPU的名字。

NVIDIA顯卡

NVIDIA是一家人工智能計算公司,創立於1993年,創始人及CEO為美籍華人Jensen Huang(黃仁勳)。1999年,NVIDIA首先提出GPU概念,從此 NVIDIA顯卡的芯就用GPU來稱呼,NVIDIA極大地推動了PC遊戲市場的發展,並重新定義了現代計算機圖形技術,徹底改變了並行計算。

蘋果自研GPU

蘋果之前一直都是跟Imagination合作,為了使自己的硬件和軟件更加完美的融合,同時不受供應商卡脖子,從A11芯片開始,蘋果正式拋棄Imagination而改用自研GPU。目前蘋果的GPU性能也是第一梯隊的,蘋果移動設備的3D顯示、AR、大型遊戲還是比較出色的。

高通GPU

目前高通驍龍移動平臺集成的Adreno GPU是應用較為廣泛的,因為大部分國產手機都採用驍龍處理器,Adreno也是可以和同期蘋果A系列芯片集成GPU一教高下的存在。Adreno的前身是ATI Imageon系列低功耗GPU,ATI被AMD收購後,AMD將移動設備相關的自從打包賣給了高通。

ARM 的Mali GPU

海思麒麟、三星Exynos、聯發科Helio等芯片都採用了ARM的GPU解決方案。這些SOC通常將多個GPU核心封裝在一個更大規模的GPU矩陣中,這也導致功耗及發熱問題的出現。目前三星和華為應該都在進行自研GPU,走上蘋果的道路。

移動GPU現狀

目前移動端GPU性能還存在一定短板,隨著5G的到來,未來會有更多的應用需要在移動端體現,AR、VR、大型遊戲等等,都需要強大的GPU支持。未來誰能掌握最強的GPU技術,誰就能獲得更多的優勢和關注度,各廠商也都在加大自研投入避免受到供應商的影響。


高性能GPU

除了臺式機、筆記本等常見領域的GPU,像人工智能及深度學習領域,數據科學家和研究人員可以用高性能GPU解析 PB 級的數據;自動駕駛領域汽車可以利用強大的GPU,幾乎可以在任何駕駛場景中自主觀察、思考、學習和導航。另外醫療、教育、自動駕駛、娛樂、影視等眾多領域越來越智能化,並且都需要越來越強大的GPU作為技術支持。

總之,無論是移動端還是大型設備,人們對GPU的性能要求越來越高,GPU的發展也會越來越快,越來越智能。


黑蝴蝶168059524


GPU,又稱顯示核心、視覺處理器、顯示芯片,是一種專門在個人電腦、工作站、遊戲機和一些移動設備(如平板電腦、智能手機等)上圖像運算工作的微處理器,與CPU類似,只不過GPU是專為執行復雜的數學和幾何計算而設計的,這些計算是圖形渲染所必需的。隨著人工智能的發展,如今的GPU已經不再侷限於3D圖形處理了,GPU通用計算技術發展已經引起業界不少的關注,事實也證明在浮點運算、並行計算等部分計算方面,GPU可以提供數十倍乃至於上百倍於CPU的性能。 GPU的特點是有大量的核(多達幾千個核)和大量的高速內存,最初被設計用於遊戲,計算機圖像處理等。GPU主要擅長做類似圖像處理的並行計算,所謂的“粗粒度並行(coarse-grainparallelism)”。這個對於圖像處理很適用,因為像素與像素之間相對獨立,GPU提供大量的核,可以同時對很多像素進行並行處理。但這並不能帶來延遲的提升(而僅僅是處理吞吐量的提升)。比如,當一個消息到達時,雖然GPU有很多的核,但只能有其中一個核被用來處理當前這個消息,而且GPU核通常被設計為支持與圖像處理相關的運算,不如CPU通用。GPU主要適用於在數據層呈現很高的並行特性(data-parallelism)的應用,比如GPU比較適合用於類似蒙特卡羅模擬這樣的並行運算。

CPU和GPU本身架構方式和運算目的不同導致了CPU和GPU之間的不同,正是因為GPU的特點特別適合於大規模並行運算,GPU在“深度學習”領域發揮著巨大的作用,因為GPU可以平行處理大量瑣碎信息。深度學習所依賴的是神經系統網絡——與人類大腦神經高度相似的網絡——而這種網絡出現的目的,就是要在高速的狀態下分析海量的數據。例如,如果你想要教會這種網絡如何識別出貓的模樣,你就要給它提供無數多的貓的圖片。而這種工作,正是GPU芯片所擅長的事情。而且相比於CPU,GPU的另一大優勢,就是它對能源的需求遠遠低於CPU。GPU擅長的是海量數據的快速處理。 工業與學術界的數據科學家已將GPU用於機器學習以便在各種應用上實現開創性的改進,這些應用包括圖像分類、視頻分析、語音識別以及自然語言處理等等。尤其是深度學習,人們在這一領域中一直進行大力投資和研究。深度學習是利用複雜的多級「深度」神經網絡來打造一些系統,這些系統能夠從海量的未標記訓練數據中進行特徵檢測。 雖然機器學習已經有數十年的歷史,但是兩個較為新近的趨勢促進了機器學習的廣泛應用:海量訓練數據的出現以及GPU計算所提供的強大而高效的並行計算。人們利用GPU來訓練這些深度神經網絡,所使用的訓練集大得多,所耗費的時間大幅縮短,佔用的數據中心基礎設施也少得多。GPU還被用於運行這些機器學習訓練模型,以便在雲端進行分類和預測,從而在耗費功率更低、佔用基礎設施更少的情況下能夠支持遠比從前更大的數據量和吞吐量。 將GPU加速器用於機器學習的早期用戶包括諸多規模的網絡和社交媒體公司,另外還有數據科學和機器學習領域中一流的研究機構。與單純使用CPU的做法相比,GPU具有數以千計的計算核心、可實現10-100倍應用吞吐量,因此GPU已經成為數據科學家處理大數據的處理器。


飄舞的風信子


GPU 原來就是為了加速 3D 渲染的,後來被拿過來做計算。
▪ 現在 GPU 可以支持通用的指令,可以用傳統的 C 和 C++,還有Fortran 來編程。
▪ 現在單個高端 GPU 的性能已經達到了傳統多核 CPU 集群的性能
▪ 有的應用通過 GPU 加速相比傳統的多核 CPU 來說可以達到 100X 的加速。對某些特定應用來說 GPU 還是最適合。


分享到:


相關文章: