了解AI晶片前世今生,從歷史看未來

“新商業·大視野”是36氪全面向新商業升級而製作的特別欄目,這裡聚集國內外知名企業家、投資人等推動中國商業發展的思想者,他們將分享新商業的經濟大勢、行業趨勢、管理/投資心得,技術趨勢,職場及人生感悟。如果你也是想要抓住新商業機會的聰明人,大師就在這裡與你同步大腦,讓你先人一步看到未來。

目前,人工智能領域正不斷取得突破性進展。作為實現人工智能技術的重要基石,AI芯片擁有巨大的產業價值和戰略地位。自2018年伊始,整個人工智能產業對於AI芯片的熱情彷彿一瞬間被徹底點燃,無論是巨頭公司還是初創企業,無論是芯片廠商還是互聯網公司,紛紛積極佈局這一領域。放眼整個人工智能行業,一時之間可謂人聲鼎沸、熱鬧非凡。

然而,越是繁榮的表象,整個產業界越需要保持客觀與冷靜。眾所周知,作為人工智能產業鏈的關鍵環節和硬件基礎,AI芯片有著極高的技術研發和創新的壁壘。從芯片發展的趨勢來看,我們現在仍處於AI芯片發展的初級階段。未來將是AI芯片發展的重要階段,無論是架構還是設計理念都存在著巨大的創新空間。那麼,當前AI芯片的發展現狀究竟如何?下一輪的爆發點又將在哪裡出現呢?

瞭解AI芯片前世今生,從歷史看未來

AI芯片的前生今世

經過長期的發展和探索,人工智能在近幾年取得了突破性進展。人工智能系統在語音識別、圖像識別、圍棋、德州撲克等諸多領域取得了超越人的能力的成果。究其原因,業界普遍認為,深度學習算法、海量的數據和充足的計算力這三大要素合力促成了這次突破。

其中,得益於摩爾定律在最近二十年的發展,充足的算力使得在可以接受的價格、功耗和時間內提供人工智能算法所需的計算性能。根據英特爾的處理器芯片能力和零售價格對比測算,單位價格可以購買到的計算力提升了1.5萬倍,從而使“通用中央處理器”(CPU)可以支持各種人工智能任務。可以說,通過芯片技術來大幅增強人工智能研發的時機已經非常成熟。然而,由於CPU要面對成百上千種工作任務來進行設計和優化,因此不可能犧牲靈活性來專門為某一類應用做優化,因此未必針對所有AI算法都是最優的選擇。為此,出現了多種CPU加專用芯片的異構計算方案,以解決計算資源和內存訪問瓶頸的研究。此外,與“腦啟發式”(brain-inspired)的深度神經網絡不同的“類腦”(brain-like)計算研究也推出了先進的神經擬態芯片來支持超高能效比的自然學習方式。

綜合來看,如果以設計理念進行劃分的話,AI芯片大致可分為兩大類別。

第一類是“AI加速芯片”,它是確定性地加速某類特定的算法或任務,從而達到目標應用領域對速度、功耗、內存佔用和部署成本等方面的要求。目前,AI加速芯片的研發有兩種主要的方式:一種是利用已有的GPU、眾核處理器、DSP、FPGA芯片來做軟硬件優化;另一種是設計專用的芯片,也就是ASIC。第二類是“智能芯片”,它讓芯片像人一樣能使用不同的AI算法進行學習和推導,處理包含感知、理解、分析、決策和行動的一系列任務,並且具有適應場景變化的能力。目前,面向綜合、自適應能力的智能芯片研究有兩類設計方法,一種是基於類腦計算的“神經擬態芯片”;另一種是基於可重構計算的“軟件定義芯片”。

圍繞這兩大方向,全球各大芯片公司都積極在人工智能領域進行佈局,英特爾也是如此。而英特爾的獨特之處,在於能夠提供全面的、多元化的解決方案。我們既提供多種芯片類型的產品,又覆蓋了從終端到數據中心的使用場景。在終端領域,可以使用Movidius、Mobileye的ASIC芯片。在邊緣計算中,可以使用ASIC芯片和FPGA芯片;在數據中心領域,可以靈活選擇至強可擴展處理器、眾核處理器和NNP等芯片方案。此外,英特爾還通過神經擬態芯片Loihi積極探索新的計算模式。

AI芯片的未來之路

目前,AI芯片雖然在某些具體任務上可以大幅超越人的能力,但在通用性、適應性上相較於人類智能還有很大差距,大多數仍處於對特定算法的加速階段。從短期來看,以異構計算(多種組合方式)為主來加速各類應用算法的落地(看重能效比、性價比、可靠性);從中期來看,要發展自重構、自學習、自適應的芯片來支持算法的演進和類人的自然智能;從長期來看,則是朝著通用AI芯片的方面發展。

在我看來,“通用AI芯片”是AI芯片皇冠上的明珠。它最理想化的方式是淡化人工干預(如限定領域、設計模型、挑選訓練樣本、人工標註等)的通用智能芯片,必須具備可編程性、架構的動態可變性、高效的架構變換能力或自學習能力、高計算效率、高能量效率、應用開發簡潔、低成本和體積小等特點。就目前而言,實現通用AI的主要直面兩大挑戰:一是通用性(算法和架構),二是實現的複雜度。通用AI芯片的複雜度來自於任務的多樣性和對自學習、自適應能力的支持。因此,我們認為通用AI芯片的發展方向不會是一蹴而就地採用某一種芯片來解決問題,因為理論模型和算法尚未完善。最有效的方式是先用一個多種芯片設計思路組合的靈活的異構系統來支持,各取所長,取長補短。一旦架構成熟,就可以考慮設計SoC來在一個芯片上支持通用AI。

從短期來看,我們很難期待出現像CPU那樣的AI通用算法芯片,AI殺手級應用還沒出現,未來還有很長一段路要走。但必須承認的是,AI芯片是人工智能技術發展過程中不可逾越的關鍵階段。無論哪種AI算法,最終的應用必然通過芯片來實現。目前,AI算法都有各自長處和短板,必須給它們設定一個合適的應用邊界,才能最好地發揮它們的作用。因此,確定應用領域就成為了發展AI芯片的重要前提。

瞭解AI芯片前世今生,從歷史看未來

在應用方面,“無行業不AI”似乎正在成為主旋律,無論是人臉識別、語音識別、機器翻譯、視頻監控,還是交通規劃、無人駕駛、智能陪伴、輿情監控、智慧農業等,人工智能似乎涵蓋了人類生產生活的方方面面。然而,是所有的應用都需要人工智能嗎?我們希望人工智能解決哪些實際的問題?什麼才是AI的“殺手級”應用?這些問題目前依然等待答案。但對於芯片從業者而言,我們的當務之急是研究芯片架構問題。從感知、傳輸到處理,再到傳輸、執行,這是AI芯片的一個基本邏輯。研究者需要利用軟件系統、處理器等去模仿。軟件是實現智能的核心,芯片是支撐智能的基礎。

從芯片發展的大趨勢來看,目前尚處於AI芯片發展的初級階段,無論是科研還是產業應用都有巨大的創新空間。從確定算法、領域的AI加速芯片向具備更高靈活性、適應性的智能芯片發展是科研發展的必然方向。神經擬態芯片技術和可重構計算芯片技術允許硬件架構和功能隨軟件變化而變化,實現以高能效比支持多種智能任務,在實現AI功能時具有獨到的優勢,具備廣闊的前景。我們相信,未來十年將是AI芯片發展的重要時期,有望在架構和設計理念取得巨大的突破。


分享到:


相關文章: