人工智能產業深度研究——半導體篇

溫馨提示:如需原文檔,可在PC端登陸未來智庫官網(www.vzkoo.com)搜索下載本“人工智能深度研究”。

1、 人 工 智能平臺到底是工具 還是應用?

人工智能平 臺(包括 芯片,模 組,軟件)在一般 人看起來 像是一種 新型應 用, 但在我們看來人工智能芯片在整合軟硬件後將成為各種物聯網應用的提升效 能工具平臺, 這就像我們常用的微軟 Office 軟件,微軟 Office 軟件是我們在辦公 室應付各種應用的生財工具, 因此人工智能平臺除了被廣泛利用在雲端大數據的 深度學習訓練和推斷外, 我們認為人工智能平臺也將出現在各式各樣的應用端的 邊緣設備,從英偉達公佈的數字來看,早在 2016 年,公司就累計了 7 大領域(高等教育,發展工具,互聯網,自駕車,金融,政府,生命科學)及 19,439 客戶使用其深度學習的服務工具, 配合軟件和之前在雲端大數據的深度學習訓練 和推斷的數據成果庫, 來達到幫助使用者或取代使用者來執行更佳的智能判斷推 理。

人工智能產業深度研究——半導體篇

雖然目前人工智能芯片仍多是以昂貴的圖形處理器(GPU),張量處理器 (Tensor Processing Unit), 或現場可 編程門陣列 芯片配合中 央處理器 (FPGA+CPU) 為主, 來用在雲端的深度學習訓練和推理的數據中心, 但未來特定 用途集成電路 (ASIC)將在邊緣運算及設備端所需推理及訓練設備遍地開花,及 逐步滲透部分雲端市場,成為人工智能芯片未來的成長動能, 我們預估全球人工 智能雲端半導體市場於 2018-2025 年複合成長率應有 37%,邊緣運算及設備端 半導體市場於 2018-2025年複合成長率應有 249% (請參考圖表), 遠超過全球 半導體市場在同時間的複合成長率的5%,整體約佔全球半導體市場的份額從 2018 年的 1% 到 2025 年的 10%。

2、 人工智能會滲入各領域應用-無所不在

當大多數的產業研究機構把自駕車(Autonomous drive vehicle), 虛擬/擴增 實境(Virtual Reality/Augmented Reality), 無人商店 (Unmanned store), 安防智 能監控 (Smart Surveillance System), 智能醫療,智能城市,和智能億物聯網 (Internet of Things, IoT) 分別當作半導體產業不同的驅動引擎, 國金半導體研究 團隊認為其實自駕/電動車, 5G, 虛擬/擴增實境, 無人商店, 安防智能監控, 智能 醫療,智能城市其實都只是人工智能億物聯網的延伸。

無人駕駛/電動/聯網車對半導體的需求爆增 10 倍:雖然全球汽車半導體產 業,目前由傳統的整合元件製造商(IDM)掌控,但未來很難說,主要是 因為先進 輔助或自 動駕駛 系統興 起,人 工智能, 攝像, 傳感, 雷達芯 片公 司的出現。像英偉達圖形處理器(Xavier,Pegasus 320),谷歌張量處理 器 (Tensor Processing Unit),英特爾/Altera/Mobileye的 CPU/FPGA/AI 解決方案,地平線 L3/L4 自動駕駛 (Matrix 1.0 平臺,征程 2.0 芯片), 高通, 聯發科,華為/海思的5G 無線通信平臺及毫米波雷達,索尼,豪威的傳 感器,博 通及瑞昱 的以太 網絡芯 片。尤 其是自動 駕駛對 雷達, 攝像頭 ,傳 感器及芯片的 3 倍增幅; 千倍的 3D 視頻數據的上傳及雲端的存儲, 學習, 推 理;因無人駕駛車設備及雲端建制成本高昂(US$150,000/Waymo 車), 額 外成本必須由廣大消費者共同分攤費用較有利,乘坐共享, 公交服務業, 產 品運送的後勤支援業無人駕駛應會領先乘用車市場,而 Waymo/谷歌將帶 動出租車/公交車 自動駕 駛市場 ,領先 英偉達的 自駕乘 用車市 場(請 參閱 國金電動,無人駕駛,車聯網的三部曲驅動力的深度報告), 依照美國加州 DMV(Department of Moter Vehicles)最新公佈的資料顯示 Waymo 於去 年測試的 120 萬英里中,每 1000 英里發生解除自駕系統狀況頻率是 0.09 次,運低於前年的 0.179 次,及通用 Cruise 的 0.19 次,蘋果的 872 次, 及 Uber 的 2860 次;自動泊車、車道偏離檢測、無人駕駛的帶寬需求,及 車內電線費用和重量的不斷增加。為了讓增加數倍的電子控制單元 (ECU) 能彼此間快速地溝通, 數倍的以太網路節點和轉換器芯片需求便隨之而來。

無人商店及安防智 能監控: 除了自動駕車聯網外, 最近風起雲湧的無人商店 和智能監控, 不也是利用大量監控攝像頭, 配合三維人臉辨識系統, 二維碼/ 近場通訊來收集大數據資料,再透過 WiFi/xDSL/光纖傳輸, 將資料送到雲端 人工智能 儲存與處 理來達 到無需 櫃檯人 員的無人 商店和 能隨時 辨識的 視頻 智能監控, 而政府機關可透過此係統來調查人口移動來重新設計城市智能公 共交通系統, 協尋通緝犯, 恐怖分子,失蹤人口, 及在展場, 車站, 機場, 學校, 大型活動場地的安全監護; 系統整合業者除可做無人商店外, 也可靠著人口 動向來預測消費熱點 (商家必備), 人口居住熱點 (房地產業必備), 如果再配 合無人商店,線上購物系統,和政府的大數據, 系統業者便可更精準的投送 廣告, 發展個人信用評級。類似於自駕車聯網, 無人店和監控聯網系統需要 大量並且高清晰度的三維辨識攝像頭和芯片, 傳輸系統和芯片, 和龐大的雲 端,邊緣運 算,及 設備端 的儲存及 智能訓 練及推 理的各式 高速芯 片及軟 件。

智 能醫療: 智能醫療系統可利用 三維臉 部個人辨 識來掛 號, 減少排隊時 間, 讓看診更 順暢。醫 院可收 集資料 並整合 個人在不 同醫療 院所的 所有醫 療紀 錄; 醫生可利用人工智能數據平臺輔助做更精準的醫療判斷, 減少重複用藥 的浪費和對病人的副作用, 醫院可利用此大數據資料做更深入的醫學研究, 數家政府醫院應先拋磚引玉, 帶頭做整合。

智能億物聯網:1. 空汙,水汙染化學感測物聯網:政府是否應利用強制安 裝並定期檢驗各式 氣體/液體的 物聯網化學感 測器在每部汽 、機車和工 廠排 汙管道上,再透過大量的低耗能無線通訊將資料上傳到雲端儲存和處理, 並 透過人工智能來監測空汙,水汙來收取空汙或水汙稅; 2. 身份識別證明聯網: 大型互聯網企業像谷歌 (Googl US), 百度(Baidu US), 騰訊(00700.HK) ,或 海康威視 (002415.SZ) 為何不能發展三維臉部個人辨識智能系統來整合所 有的線上線下購物, 啟動駕駛, 銀行轉帳/匯款/提款, 進入手機/電腦/應用App, 和政府機關辦事所需要的身份證明。您可否想過你現在要紀錄多少密 碼,多少使用者名稱, 身上帶著多少付款軟體, 銀行卡,信用卡, 鈔票, 居民 身分證, 交通卡,駕照, 護照, 居民健康卡, 電梯卡, 加油卡, 金融社保卡, 大 賣場會員證, 和各式通行卡; 3. 同步翻譯連網:目前先進智能芯片/軟體的 語音辨識速度太慢和不夠精準的理解與翻譯, 應是語言同步翻譯機仍未大賣 的主因, 但透過更高速的智能芯片, 無線通訊芯片和更龐大的語音數據庫來 訓練雲和端的人工智能的推理反應, 相信未來國際多種語言的零障礙溝通將 指日可待; 4. 人工智能教師和消費機器人: 當把強大的人工智能導入到 人工智能教師和消費機器人聯網物中, 透過不斷的反覆學習, 這不但可提升 學生的教育水平和興趣,未來都能解決老人及殘障人士的健康照顧,清潔, 飲 食,娛樂,保全 等需求,減 少後代的 負擔及外 傭虐老事 件,也明顯 能提升老 人和 殘障人士的壽命和生活品質。

3、 三種主流人工智能演算法

最早的人工智能出現及運用在 1950-1980 年代,接著轉換到 1980-2010 年機器學習,從 2010 年以後,隨著各種演算法 CNNs, RNNs, DNNs 等圖影像 視覺學習,辨 識,推理 的普及, 讓深入人 工智能深 入學習的 突飛猛進 。深度學 習是人工智能 和機器學 習的一個 子集,它 使用多層 人工神經 網絡在諸 如對象檢 測,語音識別 ,語言翻 譯等任務 中提供最 先進的準 確性。深 度學習與 傳統的機 器學習技術的 不同之處 在於,它 們可以自 動學習圖 像,視頻 或文本等 數據的表 示,而無需引 入手工編 碼規則或 人類領域 知識。它 們高度靈 活的架構 可以直接 從原始數據中 學習,並 在提供更 多數據時 提高其預 測準確性 。人工智 能的深度 學習最近取得的許多突破,例如谷歌 DeepMind 的 AlphaGo 及更強大的 AlphaZero 陸續在圍棋,西洋棋類比賽奪冠,谷歌 Waymo, 英偉達的 Xavier/Pegasus 320, 及 Intel/Mobileye 的 Eye 4/5 自動駕駛汽車解決方案,亞 馬遜的 Alexa, 谷歌的 Google Assistant, 蘋果 Siri,微軟的 Cortana, 及三星的 Bixby 智能語音助手等等。藉助加速的深度學習框架,研究人員和數據科學家 可以顯著加快 深度學習 培訓,可 以從數天 或數週的 學習縮短 到數小時 。當模型 可以部署時, 開發人員 可以依靠 人工智能 芯片加速 的推理平 臺來實現 雲,邊緣 運算設備或自 動駕駛汽 車,為大 多數計算 密集型深 度神經網 絡提供高 性能,低 延遲的推理。

人工智能產業深度研究——半導體篇

卷積神經網絡 CNNs ( Convolutional Neural Networks ): 卷積神經網絡(CNN)是 建立在模 擬人類的視 覺系統, 並透過圖 影像分類 模型的突 破, 也將是, 主要來自 於發現 可以用 於逐步 提取圖影 像內容 的更高 和更高 級別 的表示。 CNN是將圖像的原始像素數據作為輸入,並‚學習‛如何提取這 些特徵,並最終推斷它們構成的對象。首先,CNN 接收輸入特徵圖:三維 矩陣,其中前兩個維度的大小對應於圖像 的長度和寬度(以像素為單位), 第三維的大小為 3(對應於彩色圖像的 3 個通道:紅色,綠色和藍色)。 CNN 包括一堆模塊,每個模塊執行三個操作。舉例而言,卷積將 3x3 過濾貼圖的 9 個條件(0,1)套用(先乘後求和以獲得單個值)在 5x5 輸入特 徵貼圖的 9 個像素特徵上,而得出3x3全新的卷積輸出特徵貼圖。在每次 卷積操作之後,會採用最大池演算法(Max pooling),CNN 對卷積特徵貼 圖進行下采樣(以節省處理時間),同時 仍保留最關鍵的特徵信息,最 大池 化是要從特徵貼圖上滑動並提取指定大小的圖塊 (2x2),對於每個圖塊,最 大值將輸 出到新的 特徵貼 圖,並 丟棄所 有其他值 。在卷 積神經 網絡的 末端 是一個或 多個完全 連接的 層,完 全連接 的層將一 層中的 每個神 經元連 接到 另一層中的每個神經元。 它原則上與多層感知器神經網絡(multi-layer perceptron neural network (MLP) 類似,他們的工作是根據卷積提取的特 徵進行分類,CNN 可以包含更多或更少數量的卷積模塊,以及更多或更少 的完全連 接層,工 程師經 常試驗 要找出 能夠為他 們的模 型產生 最佳結 果的 配置。總之,CNN 專門於圖影像處理如自動駕駛汽車,安防,人臉辨識, 及疾病圖像辨識解決方案。

人工智能產業深度研究——半導體篇

循環神經網絡 RNNs (Recurrent Neural Network): RNN是一類人工聽覺 及說話的神 經網絡 ,具有 記憶或反 饋迴路 ,可以 更好地識 別數據 中的模 式。 RNN 是常規人工神經網絡的擴展,它增加了將神經網絡的隱藏層送回自身 的連接 - 這些被稱為循環連接。循環連接提供了一個循環網絡,不僅可以 看到它提 供的當前 數據樣 本,還 可以看 到它以前 的隱藏 狀態。 具有反 饋回 路的循環 網絡可以 被視為 神經網 絡的多 個副本, 其中一 個的輸 出用作 下一 個的輸入 。與傳統 的神經 網絡不 同,循 環網絡使 用他們 對過去 事件的 理解 來處理輸 入向量, 而不是 每次都 從頭開 始。當正 在處理 數據序 列以進 行分 類決策或迴歸估計時,RNN 特別有用,循環神經網絡通常用於解決與時間 序列數據相關的任務。不同於 CNN專門於圖影像處理,循環神經網絡的應 用包括自然 語言處 理,語 音識別, 機器翻 譯,字 符級語言 建模, 圖像分 類, 圖像字幕 ,股票預 測和金 融工程 。機器 翻譯是指 使用機 器將一 種語言 的源 序列(句 子,段落 ,文檔)翻譯 成相應 的目標序 列或另 一種語 言的矢 量。 由於一個 源句可以 以許多 不同的 方式翻 譯,因此 翻譯基 本上是 一對多 的, 並且翻譯功能被建模為有條件而非確定性。 在神經機器翻譯(NMT)中, 我們讓神經網絡學習如何從數據而不是從一組設計規則進行翻譯。 由於我們處理時間序列數據,其中語境的上下文和順序很重要,因此 NMT 的首選 網絡是遞循環神經網絡。 可以使用稱為注意的技術來增強 NMT,這有助 於模型將其焦點轉移到輸入的重要部分並改進預測過程。舉兩RNN的例子, 為了跟蹤 你的自助 餐廳主 菜的哪 一天, 每週在同 一天運 行同一 菜的嚴 格時 間表。如 週一的漢 堡包, 週二的 咖喱飯 ,週三的 披薩, 週四的 生魚片 壽司 和週五的意大利麵。使用 RNN,如果輸出‚生魚片壽司‛被反饋到網絡中 以確定星期五的菜餚,那麼 RNN 將知道序列中的下一個主菜是意大利麵(因為它已經知道有訂單而週四的菜剛剛發 生,所以星期五的菜是下一個)。 另一個例子是如果我跑了 10 英里,需要喝一杯什麼?人類可以根據過去的 經驗想出如何填補空白。由於RNN的記憶功能,可以預測接下來會發生什 麼,因為 它可能有 足夠的 訓練記 憶,類 似這樣的 句子以‚水‛結束以 完成 答案。

人工智能產業深度研究——半導體篇

深度神經網絡 DNNs (Deep Neural Network): DNN 在視覺,語言理解和 語音識別 等領域取 得了關 鍵突破 。為了 實現高精 度,需 要大量 數據和 以後 的計算能力來訓練這些網絡,但這些也帶來了新的挑戰。特別是 DNN 可能 容易受到 分類中的 對抗性 示例, 強化學 習中遺忘 任務, 生成建 模中的 模式 崩潰的影響以及過長的運算時間。為了構建更好,更強大的基於 DNN 的系 統,是能 否有效地 確定兩 個神經 網絡學 習的表示 何時相 同?我 們看到 的兩 個具體應用是比較不同網絡學習的表示,並解釋 DNN 中隱藏層所學習的表 示。設置的關鍵是將 DNN中的每個神經元解釋為激活向量,神經元的激活 矢量是它在輸入數據上產生的標量輸出。例如,對於50 個輸入圖像, DNN 中的神經元將輸出 50 個標量值,編碼它對每個輸入的響應量。然後, 這 50 個標量值構成神經元的激活矢量。因為深度神經網路的規模(即層數 和每層的節點數),學習率,初始權重等 眾多參數都需要考慮。掃描所 有參 數由於時間代價的原因並不可行,因而小 批次訓練(微型配料),即將 多個 訓練樣本 組合進行 訓練而 不是每 次只使 用一個樣 本進行 訓練, 被用於 加速 模型訓練。而最顯著地速度提升來自 GPU,因為矩陣和向量計算非常適合 使用 GPU實現。但使用大規模集群進行深度神經網路訓練仍然存在困難, 因而深度神經網路在訓練並列化方面仍有提升的空間。

人工智能產業深度研究——半導體篇

4、 到底哪種人工智能芯片將成雲計算的主流?

深度學習是一種需要訓練的多層次大型神經網絡結構(請參考圖表),其每 層節點相當於 一個可以 解決不同 問題的機 器學習。 利用這種 深層非線 性的網絡 結構,深度學 習可以從 少數樣本 展現強大 的學習數 據集本質 特徵的能 力。簡單 來說,深度學 習神經網 絡對數據 的處理方 式和學習 方式與人 類大腦的 神經元更 加相似和準確 。谷歌的 阿法狗也 是先學會 瞭如何下 圍棋,然 後不斷地 與自己下 棋,訓練自己的深度學習神經網絡, 更厲害的阿法零 (AlphaZero) 透過更精準的 節點參數, 不用先進行預先學習就能自我演化訓練學習。深度學習模型需要通過 大量的數據訓練才能獲得理想的效果, 訓練數據的稀缺使得深度學習人工智能在 過去沒能成為 人工智能 應用領域 的主流算 法。但隨 著技術的 成熟,加 上各種行 動、固定通訊設備、無人駕駛交通工具, 可穿戴科技, 各式行動、固定監控感測 系統能互相連 接與溝通 的億物聯 網,驟然 爆發的大 數據滿足 了深度學 習算法對 於訓練數據量的要求。

人工智能產業深度研究——半導體篇

訓練和推理所 需要的神 經網絡運 算類型不 同。神經 網絡分為 前向傳播(Forward algorithm)其中包括輸入層, 隠藏層, 輸出層和後向傳播(Backward algorithm)主要指的是梯度運算, 兩者都包含大量並行運算。訓練同時需要前向 和後向傳播, 推理則主要是前向傳播。一般而言訓練過程相比於推理過程計算量 體更大。雲端 人工智能 系統透過 海量的數 據集和調 整參數優 化來負責 訓練和推 理,邊緣運算 終端人工 智能設備 負責推理 。推理可 在雲端進 行,也可 以在邊緣 運算端或設備 端進行。 等待模型 訓練完成 後,將訓 練完成的 模型(主 要是各種通過訓練得到 的參數) 用於各種 應用。應 用過程主 要包含大 量的乘累 加矩陣運 算,並行計算 量很大, 但和訓練 過程比參 數相對固 定,不需 要大數據 支撐,除 在雲端實現外 ,也可以 在邊緣運 算端實現。 推理所需 參數可由 雲端訓練 完畢後, 定期下載更新到應用終端。

在深度學習半導體領域裡,最重要的是數據和運算。誰的 晶體管數 量多, 芯片面積大, 誰就會運算快和佔據優勢。因此,在處理器的選擇上,可以用於通 用基礎計算且運算速率更快的GPU 迅速成為人工智能計算的主流芯片, 根據美 國應用材料的公開資料 (請參考圖表), 英偉達的人工智能邏輯芯片配合英特爾的 中央處理器服務器芯片面積達 7,432mm2,是不具人工智能的企業用和大數據 服務器的八倍或谷歌專用張量處理器人工智能服務器的三倍多, 存儲器耗用面積 (32,512mm2) 是其他服務器的三倍以上。可以說,在過去的幾年,尤其是2015 年以來,人工智能大爆發就是由於英偉達公司的圖形處理器, 得到雲端主 流人工智能的應用。但未來因為各個處理器的特性不同, 我們認為英偉達的圖形 處理器 GPU 和谷歌的張量處理器仍能主導通用性雲端人工智能深度學習系統 的訓練, 可編程芯片 FPGA 的低功耗及低延遲性應有利於主導雲端人工智能深 度學習系統的推理,而特殊用途集成電路(ASIC) 未來將主導邊緣運算及設備端 的訓練及推理 ,但因為 成本,運 算速度, 及耗電優 勢,也會 逐步侵入 某些特殊 應用人工智能雲端服務器市場,搶下訓練及推理運算的一席之地, 以下就先列出 各種處理器在雲端人工智能系統的優缺點:

人工智能產業深度研究——半導體篇

人工智能產業深度研究——半導體篇

中央處理器 CPU: X86 和 ARM 在內的傳統 CPU 處理器架構往往需要數百 甚至上千 條指令才 能完成 一個神 經元的 處理,但 對於並 不需要 太多的 程序 指令,卻需 要海量 數據運 算的深度 學習的 計算需 求,這種 結構就 顯得不 佳。 中央處理器 CPU 需要很強的處理不同類型數據的計算能力以及處理分支與 跳轉的邏輯判斷能力,這些都使得CPU 的內部結構異常複雜, 現在 CPU 可以達到 64bit 雙精度,執行雙精度浮點源計算加法和乘法只需要 1~3 個 時鐘週期,時鐘週期頻率達到 1.532~3gigahertz。CPU 擁有專為順序邏 輯處理而 優化的幾 個核心 組成的 串行架 構,這決 定了其 更擅長 邏輯控 制、 串行運算與通用類型數據運算, 當前最頂級的 CPU 只有 6 核或者 8 核,但 是普通級別的 GPU 就包含了成百上千個處理單元,因此 CPU 對於影像, 視頻計算中大量的重複處理過程有著天生的弱勢。

圖形處理器 GPU 仍主導雲端人工智能深入學習及訓練: 最初是用在計算機、 工作站、遊戲機和一些移動設備上運行繪圖運算工作的微處理器, 但其海量 數據並行 運算的能 力與深 度學習 需求不 謀而合, 因此, 被最先 引入深 度學 習。GPU 只需要進行高速運算而不需要邏輯判斷。GPU 具備高效的浮點 算數運算 單元和簡 化的邏 輯控制 單元, 把串行訪 問拆分 成多個 簡單的 並行 訪問,並同時運算。例如,在CPU上只有 20-30%的晶體管(內存存儲器 DRAM dynamic random access memory, 緩存靜態隨機存儲器 Cache SRAM, 控制器 controller 佔了其餘的70-80%晶體管) 是用作計算的,但 反過來說, GPU 上有 70-80%的晶體管是由上千個高效小核心組成的大規模 並行計算架構 (DRAM 和微小的 Cache SRAM, controller 佔了剩下的 20- 30% 晶體管)。大部分控制電路相對簡單,且對 Cache 的需求小,只有小 部分晶體 管來完成 實際的 運算工 作,至 於其他的 晶體管 可以組 成各類 專用 電路、多條流水線,使得GPU擁有了更強大的處理浮點運算的能力。這決 定了其更 擅長處理 多重任 務,尤 其是沒 有技術含 量的重 復性工 作。不 同於 超威及英特爾的 GPU 芯片,英偉達的人工智能芯片具有 CUDA 的配合軟 件是其領先人工智能市場的主要因素。CUDA 編程工具包讓開發者可以輕 松編程屏幕上的每一個像素。在 CUDA 發佈之前, GPU 編程對程序員來 說是一件苦差事,因為這涉及到編寫大量低層面的機器碼。CUDA 在經過 了英偉達的多年開發和改善之後,成功將Java或 C++這樣的高級語言開 放給了 GPU 編程,從而讓GPU編程變得更加輕鬆簡單,研究者也可以更 快更便宜地 開發他 們的深 度學習模 型。因 此我們認 為目前 英偉達 價值(6,000/7,500-9,300/10,500 美元)的圖形處理器加速卡 Tesla V100 PCIe/SXM2 (640 Tensor 核心, 5,120 CUDA核心) 或配備 8/16 顆 V100 的 DGX-1/H-2 系統(180,000-360,000 美元),配合其 CUDA 軟件及 NVLink 快速通道,能達到近 125 兆次深入學習的浮點運算訓練速度(TERA FLOPS), 以 16bit 的半精度浮點性能來看,可達到31 Tera FLOPS, 32bit 的單精度浮點性能可達到 15.7 Tera FLOPS, 及 64bit 的雙精度可達到 7.8 Tera FLOPS,210億個晶體管, 臺積電 12 納米制程工藝,815mm2芯片大小,仍然是目前雲端人工智能深入學習及訓練的最佳通用 型解決方案, 但未來會受到類似於華為海思 Ascend-Max 910 ASIC 芯片 及 Ascend Cluster 系統的挑戰。

現場可編程門陣列芯片 FPGA 的優勢在低功耗,低延遲性: CPU 內核並不 擅長浮點 運算以及 信號處 理等工 作,將 由集成在 同一塊 芯片上 的其它 可編 程內核執行,而 GPU 與 FPGA 都以擅長浮點運算著稱。FPGA 和 GPU 內 都有大量的計算單元,它們的計算能力都很強。在進行人工智能神經網絡(CNN, RNN, DNN) 運算的時候,兩者的速度會比 CPU 快上數十倍以上。 但是 GPU 由於架構固定,硬件原來支持的指令也就固定了,而 FPGA 則 是可編程 的,因為 它讓軟 件與應 用公司 能夠提供 與其競 爭對手 不同的 解決 方案,並且能夠靈活地針對自己所用的算法修改電路。雖然FPGA 比較靈 活, 但其設計資源比 GPU 受到較大的限制,例如 GPU 如果想多加幾個核 心只要增加芯片面積就行,但 FPGA 一旦型號選定了邏輯資源上限就確定 了。而且,FPGA 的佈線資源也受限制,因為有些線必須要繞很遠,不像 GPU 這樣走 ASIC flow 可以隨意佈線,這也會限制性能。FPGA 雖然在浮 點運算速度, 增加芯片面積,及佈線的通用性比 GPU 來得差,卻在延遲性 及功耗上對 GPU 有著顯著優勢。英特爾斥巨資收購 Altera 是要讓 FPGA 技術為英 特爾的發 展做貢 獻。表 現在技 術路線圖 上,那 就是從 現在分 立的 CPU 芯片+分立的 FPGA 加速芯片(20nm Arria 10GX),過渡到同一封裝內 的 CPU 晶片+FPGA 晶片,到最終的集成 CPU+FPGA 系統芯片。預計這 幾種產品形式將會長期共存,因為 CPU 和 FPGA 的分立雖然性能稍差, 但靈活性更高。目前來看, 用於雲端的人工智能解決方案是用 Xeon CPU 來配合 Nervana, 用於雲端中間層和邊緣運算端設備的低功耗推斷解決方案 是用Xeon CPU來配合FPGA可編程加速卡。賽靈思(Xilinx)於2018年 底推出以低成 本,低延 遲,高耗 能效率的 深度神經 網絡(D NN)演算 法為 基礎的 Alveo 加速卡,採用臺積電 16nm 製程工藝的 UltraScale FPGA,預 期將拿下不少人工智能數據中心雲端推理芯片市場不少的份額。

人工智能產業深度研究——半導體篇

谷歌張量處理器 TPU 3 強勢突圍,博通/臺積電受惠,可惜不外賣 : 因為 它能加速其人工智能系統 TensorFlow 的運行,而且效率也大大超過 GPU―Google 的深層神經網絡就是由 TensorFlow 引擎驅動的。谷歌第三 代張量處理器 (TPU, Tensor Processing Unit, 大約超過 100 Tera FLOPS/hp-16bit) 是專為機器學習由谷歌提供系統設計,博通提供 ASIC 芯 片設計及智財權專利區塊,臺積電提供 16/12 納米制程工藝量身定做的, 執行每個操作所需的晶體管數量更少,自然效率更高。TPU 每瓦能為機器 學習提供比所有商用 GPU 和 FPGA 更高的量級指令。TPU 是為機器學習 應用特別 開發,以 使芯片 在計算 精度降 低的情況 下更耐 用,這 意味每 一個 操作只需 要更少的 晶體管 ,用更 多精密 且大功率 的機器 學習模 型,並 快速 應用這些 模型,因 此用戶 便能得 到更正 確的結果 。以谷 歌子公 司深度 思考 的阿爾法狗及零 (AlphaGo, AlphaZero/DeepMind) 利用人工智能深度學習 訓練和推理來打敗世界各國排名第一的圍棋高手, 世界排名第一的西洋棋 AI 程式 Stockfish 8, 世界排名第一的日本棋 Shogi AI 專家,但我們估計 AlphaZero 系統使用至少近 5 大排人工智能主機,5,000 個張量處理器, 1,280 箇中央處理單元而讓雲端的設備異常昂貴,且無提供任何的邊緣運算 端設備。

ASIC 特定用途 IC 需求即將爆發:即使研發期長, 初期開發成本高, 通用性 差,但國內芯片業者因缺乏先進 x86 CPU, GPU, 及 FPGA 的基礎設計智 慧財產權(IPs),可完全客製化,耗電量低,性能強的特定用途 IC(ASIC Application-specific integrated circuit)設計就立刻成為國內進入人工智能 雲端及邊 緣運算及 設備端 芯片半 導體市 場的唯一 途徑。 但因為 起步較 晚, 除了比特大陸的算豐 (SOPHON) BM1680 及 BM1682 雲端安防及大數據 人工智能 推理系列 產品已 經上市 之外, 其他公司 在雲端 人工智 能訓練 及推 理芯片設計都還停留在紙上談兵階段。 舉例而言,華為海思使用臺積電 7 納米制程工藝設計的昇騰 Ascend 910 ASIC 系列,號稱在 16bit 半精度下 能達到 256 兆次的浮點運算,倍數於英偉達目前最先進的 Volta 100 解決 方案(臺積電 12 納米) 也要等到 2H19 量產及谷歌最新推出的張量處理器 3 (臺積電 16/12 納米),。而從智能手機端 IP 事業切入設計雲端芯片的寒武 紀,將於 2019 首發的產品 MLU100 PCIe 智能推理加速卡 (臺積電 16 納 米)在打開稀疏模式時的峰值也可達到64 兆次浮點運算(16bit 半精度)。 最後可惜的是國內搜尋引擎龍頭百度的崑崙芯片(818-300 採用 Samsung 14 納米),阿里巴巴的 Ali-NPU, 及亞馬遜的 Inferentia 目前都還沒有提供 更確實的 芯片速度 ,耗電 量,應 用,價 格,量產 時點, 及軟件 框架規 格讓 我們做出更好的比較圖表。

5、 哪種人工智能芯片將成邊緣運算及設備端的主流?

從算法,IP,邊緣運算及設備端芯片轉換到模塊,平臺或生態系的戰爭

谷歌在 Google Cloud NEXT 2018 活動中, 首次推出人工智能推斷用邊緣 運算張量處理器(Edge Tensor Processing Unit, Edge TPU, <30mm2)具有低 功耗,低延遲,高運算效率,其開發版系統模塊套件中還包括有恩智浦的CPU, 圖芯的 GPU,再配合谷歌開源簡易版機器學習框架軟件(Open-source TensorFlow Lite), 設備端物聯網核心運作(Edge IoT Core)和邊緣運算端張 量處理器,來推動各種應用, 像是預測性維護, 異常檢測,機器視 覺,機器人, 語音識別, 醫療保健,零售,智能空間,運輸交通等等。

人工智能產業深度研究——半導體篇

在谷歌的 Waymo 建立了全球最大的無人駕駛車隊後,谷歌再次利用其在 深度學習及雲 端軟,硬 件的技術 領先優勢 ,提供機 器學習邊 緣運算端 軟件,固 件,安卓物聯網作業系統及專用半導體芯片整體解決方案模塊,讓客戶對其智 能物聯網解決 方案的黏 著度提升 ,這不但對 中國大陸 人工智能 芯片公司 是利空, 也對目前主要提供雲及邊緣運算物聯網服務的競爭廠商亞馬遜(AWS),微軟(Azure),阿里巴巴造成市場壓力。

人工智能產業深度研究——半導體篇

但是,目前 谷歌終端 型張量處 理器目前 只能算是 個機器學 習的加速 器,不 能獨立運作, 其解決方 案中還要 配合其他 半導體公 司的芯片 ,像是恩 智浦以安 謀為核心的中央處理器,圖芯(Vivante Corporation)的 GC7000 Lite 圖形處 理器 (請參考圖表),我們認為谷歌的解決方案效能比較與量產時間未定。而且, 谷歌過去還是 主推軟件 解決方案 ,自有硬 件及半導 體的產品 上市都是 拿來推廣 其軟件及生態 系解決方 案,其邊 緣運算型 張量處理 器硬件規 格中,還 是使用相 對舊的 28 納米晶圓代工製程工藝,Tera OPS 浮點遠算能力,耗電瓦特數,價格等指標都還 是未知, 來與其他 人工智能 芯片設計 公司的產 品來做比 較。舉例 而言,英偉達今年推出的 Jetson AGX Xavier 模塊也是瞄準物聯網應用端的解 決方案,但在其高單價下規格明顯勝出。華為即將推出的邊緣運算模塊Atlas 200 和 Atlas 300 也相當有競爭力。

從英偉達, 谷歌,英 特爾,及 華為在深 入學習邊 緣運算端 解決方案 模塊及 軟件與固件的競爭,而高通及 聯發科陸續將人工 智能專利區塊透過 嵌入式整合到 其手機應用處 理器中, 可以看出 未來在人 工智能端 的應用領 域已經不 再單單是 人工智能算法,IP(智財權)到芯片設計推陳出新的競爭,中國大陸的人工智能 算法/IP/芯片龍頭公司像寒武紀,地 平線為了存活,就必須與應用領域系統公司 緊密合作,共 同推出更 佳的嵌入 式或獨立 式解決方 案模塊及 軟,固件 ,否則就 要像谷歌和英 偉達一樣 推出自己 整套的解 決方案。 雖然比特 大陸及嘉 楠耘智進 入人工智能芯 片領域較 晚,但其 在挖礦機 業務及挖 礦生態系 的系統整 合經驗, 反而比只具備算法/IP/芯片的人工智能設計公司還有機會。

6、 誰能引領國內人工智能芯片產業突圍?

未來因人工智能邊緣運算推理端和雲端推理(Inferencing)芯片及設備成 本, 性能,耗電, 效率的考量, 以及各種處理器的特性不同, 我們預期特定用途集 成電路(ASIC)或系統集成電路 (SoC, system on chip) 未來將在設備,邊緣運算, 及雲端推理市場和設備,邊緣運算,小部分雲端訓練市場遍地開花, 百花齊放, 根據產業鏈調查,我們認為中國在處理器/芯片領域的投資有加速的跡象,AI 芯 片的創業企業目前已達到 40 家左右。

而中國的人工智能半導體公司像華為海思 (HiSilicon), 寒武紀(Cambricon), 地 平 線 (Horizon Robotics), 彼 特 大 陸 (Bitmain), 耐 能 (Kneron), 肇 觀 (NextVPU),及大數據系統公司如百度,阿里巴巴及安防龍頭海康威視,大華 將追隨國際大廠陸續推出人工智能特定用途集成電路和系統芯片, 從過去的模仿 和追趕模式改為提前佈局的思路, 加上今年中國科創板融資平臺的加持, 相信一 定可以孵育出未來世界級的人工智能芯片設計龍頭公司。但就未來2-3 年來看, 因為有強大的財物資源來支持 10 納米以下先進製程工藝的電子設計自動化軟 件(EDA tool),驗證(Verification),光掩膜(Photo Mask)成本的躥高(請參 考圖表),最有實力的半導體設計團隊,及其對人工智能深入學習系統的知識及 各種設備人工 智能化的 需求,我 們預測華 為海思將 能引領國 內人工智 能芯片產 業突圍;而比特大陸因為深諳 IP,芯片,模塊,到平臺或生態系的爭戰, 我們 不排除比特大 陸反而領 先其他一 些一線設 計公司率 先推出些 雲端人工 智能的推 理/訓練芯片 及解決方 案模塊; 當然,我 們還是認 為純算法 及半導體 設計公司 寒武紀,目前 有較佳的 設計團隊 及較充裕 的估值融 資能力來 陸續推出 邊緣運算 端及雲端推理的人工智能芯片;最後因為 SAE Level 4/5 自動駕駛平臺成本過 高及生態系組 成龐大及 複雜,目 前我們對 地平線在 自動駕駛 的解決方 案方面的 短期營運及獲利模式存疑。

人工智能產業深度研究——半導體篇

華為海思後發先至:在供應全球智能手機第二大廠,中國智能手機第一大 廠華為超過近 六成的應 用處理器 及基頻芯 片,及率 先數月於 高通及聯 發科 採用臺積電的 7 納米制程工藝推出的麒麟 980 芯片,讓華為的 Mate 20 手 機大賣,並讓華為整體智能手機在國內的市佔從2017 年的 20%,提高到 2018 年的 27%,及 2018 年四季度的 29%, 預期這也將同時拉昇華為海 思 (HiSilicon) 在全球無晶圓設計公司的市佔到 6-7%或是在 2019 年成為前 五大。而 7 納米的麒麟 980 芯片是整合了寒武紀 (Cambricon) 設計的 Cambricon-1M 神經處理單元 (NPU, Neural Processing Unit) 專利區塊來 讓攝像頭看得更全, 更清, 更快, 更久, 讓麥克風聽得更清, 更廣, 識別場景, 推測用戶行為意圖, 和適時處理高性能或高效率任務, 根據華為公佈的資料, 在人工智能性能比上,其 NPU 是 一般 CPU 的 25 倍,GPU 的 6.25 倍(25/4),能效比上,NPU 更是達到了 CPU 的 50 倍,GPU 的 6.25 倍(50/8)(請參考圖表)。但因為目前其邊緣運算端神經處理單元架構簡單, 我們估計此專利區塊芯片應不超過整體芯片面積(基頻和應用處理器整合在 一起的系統芯片面積) 的 10%。但因為我們預期採用臺積電 7 納米 EUV 制 程工藝的華為海思麒麟 990 芯片,將使用海思自行設計的人工智能專利區 塊 Ascend Lite SKU(請參考圖表),而蘋果(Neural Engine, 5 Tera OPS) 高通 (Neural Processing Engine SDK Software Development Kit,< 8 Tera OPS),聯發科 (NeuroPilot SDK, Android Neural Network NNAPI 聯 發科 NeuroPilot SDK) 也將陸續整合其人工智能專利區塊及軟件到其手機 應用處理器 (Application processor)中,這將對寒武紀及其他人工智能算法 及芯片公司在智能手機及聯網物 (IoT) 設備端的芯片發展造成限制。

華為海思因為有這樣強大的財物資源來支持 7 納米以下先進製程工藝 的電子設計自動化軟件(EDA tool),驗證(Verification),光掩膜(Photo Mask)成本的躥高,擁有國內最強 的半導體設計團隊,及其龐大的 系統知 識及各種設備 對人工智 能化的需 求,我們 預測華為 海思將後 發先至引 領國 內人工智能芯片產業突圍。華為海思今年將陸續問世的7 納米昇騰 Ascend-Max 910 ASIC (整合 8 顆芯片 dies),及 1,024 顆昇騰 910 芯片 的 Ascend Cluster (256 Peta FLOPS),使用 12 納米昇騰 Ascend-mini (310),-Lite,-Tiny,-Nano ASIC推出的Atlas200加速模塊,Atlas300加速 卡, Atlas 500 智慧小站,Atlas 800 私有云解決方案一體機,MDC 600 移 動數據中心 (Mobile Data Center)。我們預期這些 AI 芯片及系統,陸續將 對英偉達,賽 靈思,英 特爾,谷 歌在雲端 及邊緣運 算端人工 智能芯片 及平 臺的地位,帶來挑戰,但特定用途 IC 的專用性缺點會讓華為海思切入像是 外部安防等系 統公司客 戶時,碰 到些安防 公司系統 知識領域 不願意外 洩的 問題。

寒武紀從設備端步入雲端:寒武紀 (Cambricon) 是於 2016 年在北京成立, 核心成員 陳天石及 陳雲霽 兄弟都 曾在中 科院計算 所工作 ,專攻 計算機 處理 器結構優 化和人工 智能, 而後來 寒武紀 在拿到中 關村科 技園區 支持資 金及 上海市政府對神經網絡處理器,深度學習處理器 IP 核項目,智能處理器核 項目等多項補助近 6,000 萬人民幣,加上多次拉高估值的融資,於 2018 年 5 月 3 日, 發佈了使用 TSMC 7nm 工藝 IP 的 1M,每瓦速度達 3.1-3.3 兆次運算,為 10 納米 1A 智財權專利區塊的 10 倍左右,且超越英偉達 V100 的每瓦速度達 0.4 兆次運算,其 8 位運算效能比達 5Tops/watt(每瓦5 兆次運算)。寒武紀提供了三種尺寸的處理器內核(2Tops/4Tops/8Tops) 以滿足不 同領域下 ,不同 量級智 能處理 的需求( 智能手 機、智 能音箱 、攝 像頭、自動駕駛)。Cambricon 也介紹以 TSMC 16nm 工藝製程設計的 MLU 100 及 MLU 200 雲端服務器 AI 芯片,具有很高的通用性,可滿足計 算機視覺 、語音、 自然語 言處理 和數據 挖掘等多 種雲端 推理, 甚至訓 練的 任務。在發佈會上,聯想 (ThinkSystem SR650),中科曙光 (Phaneron 服 務器),科大訊飛 (翻譯機 2.0) 都介紹了使用 Cambricon MLU100 芯片相對 應的雲端服務器。此外,專為開發者打造的Cambricon NeuWare 人工智 能軟件平臺,加上支持 TensorFlow, Caffe, MXNet 等主流機器學習框架 (Framework),讓寒武紀在尚未扭虧為盈的情況下(估計 2017 年虧損超過 1,000 萬人民幣以上),2018 年營收連 1,000 萬美金都達不到的狀況下(2016/2017 年營收估計約 400 萬人民幣上下),市值已被拉高到超過25 億美元。

賣人工智能解決方案模塊的地平線:地平線(Horizon Robotics)創辦人 是前百度 深度學習 研究院 負責人 餘凱、 還有前華 為芯片 研發架 構師周 峰, 地平線不 是隻做芯 片,在 軟件方 面,地 平線已經 研發出 了自動 駕駛的 雨果 神經網絡 OS 平臺 及智能家居的安徒生平臺。地平線的目標是做分支處理 單元(BPU, Branch processing unit)的人工智能算法架構+嵌入式芯片的 (Embedded ARM, CPU, GPU, FPGA) 自動駕駛 (征程 2.0 處理器), 智能城 市, 智能商業 (旭日 1.0 處理器) 的人工智能設備終端解決方案模塊(具有感 知,識別 ,理解, 控制的 功能) 給產品 廠商。地 平線的 整個流 程是根 據應 用場景需求 ,設計 算法模 型,在大 數據情 況下做 充分驗證 ,模型 成熟以 後, 再開發一 個芯片架 構去實 現,該 芯片並 不是通用 的處理 器,而 是針對 應用 場景跟算法是結合在一起的人工智能算法處理器,得到芯片大小, 執行, 耗 能(Area、Performance、Power)的綜合解決方案。地平線 BPU 架構的 解決方案只可以用在符合車規的 FPGA 或 GPU 等計算平臺上,下一步地 平線會將自己的 BPU 處理器 IP 授權給國際廠商,讓他們生產車規級處理 器。智能駕駛方面,基於高斯架構研發的ADAS 產品(征程 1.0 處理器) 也會作為重點推進, SAE L3/L4 的無人駕駛 Matrix 1.0 平臺,也會持續落實 與系統廠商像是博世的技術合作,計劃在年中實現特定道路的自動駕駛; 智 能生活方 面,除與 美的的 合作之 外,地 平線繼續 在家電 、玩具 、服務 機器 人等領域 發力;公 共安防 方面, 地平線 去年與英 特爾在 北美安 防展上 進行 聯合展示。類似於寒武紀,地平線於2018 年 11 月 27 日獲得近 10 億美金 的 B 輪融資,持續拉高其市值。

從挖礦機轉雲端人工智能推理模塊的比特大陸:由 CEO 詹克團及創 辦人 吳忌寒於 2013 年聯合成立的挖礦機及芯片霸主比特大陸 (BITMAIN) 於 2017 年 11 月, 正式介紹其 AI ASIC 芯片品牌 SOPHON (算豐),宣佈全 球首款雲端安防及大數據人工智能推理系列的張量加速計算芯片 28nm BM1680 的震撼面世,並展示了視頻圖像分析、人臉人體檢測的演示。並 同步發佈了 SOPHON.AI 官網,並將系列產品在官網中面向全球發售。 BITMAIN 致力於通過強大的芯片工程、快速迭代和系統設計製造能力,提 供最具性價比、最具性能功耗比的 AI 計算力,同時致力於為行業定製、優 化全棧的硬件和系統方案,從而極大降低行業+AI 的難度,促進 AI 普及。 BM 1682 在 2017 年 12 月已進入流片階段,並於 2Q18 量產。12nm 的 BM 1684 是預計於 1Q19 量產及第四代的 12 納米芯片 BM1686 是預計於 2H19 量產。這兩款芯片會擁有 6/9 Tera Flops 的能力和 30W 的功耗。 BM1880 是比特大陸於 2018 年 10 月發佈的一款設備端 AI 芯片,將主要應 用於安防、互聯網及園區等領域 BM1880 芯片可以作為深度學習推理加速 的協處理器,也可以作為主處理器從以太網接口或USB 接口接收視頻流、 圖片或其 它數據, 執行推 理和其 他計算 機視覺任 務,其 它主機 也可以 發送 視頻流或圖片數據給 BM1880,BM1880 做推理並將結果返回主機。比特 大陸將於2019 年推出第二代產品 BM1882,以及 2020 年的 BM1884,按 照規劃,BM1882 和 BM1884 的主要應用場景將是智能攝像機、智能機器 人和智能家居等。雖然目前比特幣跌破 4,000 美元以下,佔比特大陸 98% 的礦機銷售,自營挖礦業務要是採用兩年折舊幾乎是無利可圖(除了於 4Q18 推出的 7 納米 BM1391 挖礦芯片及 S15 挖礦機應可獲利外),而 AI 芯片導入雲端系統又遙不可期,但不同於其他新興 AI 芯片設計公司大多缺 乏現金,比特大陸在手現金(7-8 億美元現金,4-5 億美元的加密貨幣)應 該還是有超過 10 億美元,芯片研發設計資源仍然豐厚,每一代芯片代與代 之間的間隔是快於摩爾定律而達到9-12 個月。摩爾定律是指芯片行業每 18 到 24 個月的週期裡,計算能力能翻一倍,或者在相同的單位芯片面積 裡,晶體管數量翻一倍。

耐能專注於低功耗設備端的人工智能芯片:耐能 (kneron)是由一群留美華 人於 2015 年成立於聖地牙哥,CEO 劉峻誠博士是畢業於 UCLA,並於 2018 年 7 月延攬前高通多媒體研發部總監李湘村(前展訊,華為,VIVO VP)為其首席科學家,其餘團隊成員多有 UCLA, 清華大學,高通,三星 電機,電子,計算機背景,並於 2017 年 11 月, 耐能宣佈完成超過千萬美 元的 A 輪融資,阿里創業者基金(Alibaba Entrepreneurs Fund)領投,奇 景光電(HIMX, Himax Technologies,Inc.)、中華開發資本(CDIB)、高 通、中科創達(Thundersoft)、紅杉資本(Sequoia Capital)的子基金 Cloudatlas, 與創業邦跟進投資, 2018 年 5 月由李嘉誠旗下維港投資(HorizonsVentures)領投的 A1 輪融資,還有最近一輪從 Iconiq capital (Mark Zuckerberg’s private fund)拿到的融資。耐能的定位是子系統設 備端人工智能的技術提供廠商,現在主打低功耗、輕量級, 可壓縮/重組(reconfigurable,靠軟件重組 CNN, Pooling 運算區塊的組合)的 NPU (神經網絡處理單元)芯片,專注在智能手機的子系統(NPU IP- KDP300)、物聯網(IoT)、智能家居、智能安防(NPU IP-KDP500)設備端 市場, 機器人,無人機,安防(NPU IP-KDP 700) 能耗比可以做到 100mw 到 300mw,最新的一款產品甚至可以到 10mw 以下,但在算力方 面可以達到華為海思 Ascend Lite 系列的芯片等級,而納能另外與 Cadence 的 Tensilica Vision P6 DSP 處理器整合的 KDP 720 NPU 處理器, 主要是鎖 定智能安 防與監 控。有 別於目 前市場上 主流的 雲端人 工智能 ,耐 能提供創 新的設備 端人工 智能解 決方案 ,可將一 部份的 人工智 能從雲 端移 轉到設備 端上,進 行實時 識別與 分析推 斷,不用 等到把 所有數 據經由 網絡 傳送至雲 端後才能 處理, 並可大 幅減輕 網絡、雲 端的負 擔與成 本。耐 能目 前手機加 OEM/ODM 客戶可達 6-8 家,主要客戶有手機相關的高通,格力, 奇景光電 ,互聯網 的客戶 包括搜 狗,騰 訊,鈺創 ,鈺立 微,工 業計算 機客 戶有研揚, 安防客戶有大華,蘇州科達等。格力已經使用其智財權區塊量 產,目前一些芯片已經量產。 因擴大研發團隊及產品線,耐能從2017 年 的獲利扭贏轉到 2018 年虧損達 400-500 萬美元,但 2019 年將有二顆芯片 流片 (Tape out)。

億智是有實力又低調的 AI 芯片公司:的由前全志團隊組成的億智電子科技 於 2016 年 7 月在珠海高新區註冊成立。同年 10 月在北京設立人工智能(AI)算法研究團隊。億智核心團隊是中國最早一批進行 SOC 系統設計的 專家,有 20 多年的行業經驗,目前億智在珠海的研發團隊已近 100 餘人。 億智電子科技已於 2018 年 2 月完成了數千萬元天使輪融資,並於 2018 年 8 月由北極光創投領投,達泰資本跟投。億智的商業模式主要為代理商和 大客戶提 供整套的 解決方 案。目 前,億 智解決方 案主要 聚焦在 視像安 防、 智能硬件(家電)、汽車電子等方面。2017 年底第一顆 Test Chip 首次流片 即成功,2018 年第四季度流片 AI 功能量產版系統級芯片,於 2019 年實現 量產出貨 。億智在 珠海、 北京、 深圳均 設有辦公 地點, 其中珠 海為總 部, 負責芯片設計、算法研究、軟件開發等方向。北京負責人工智能AI 算法的 研究。深圳 負責方 案開發 、技術支 持、市 場與客 戶拓展等 。億智 成立至 今, 一直堅持 AI 加速、高清顯示、音視頻編解碼、高速數模混合等 IP 的自主 研發,這樣可以實現更低帶寬、更低功耗、更低成本地落地應用產品。特 別是 AI 的 IP 的 PPA 指標均優於業界對手。目前已經成長為具備完全自主 AI SOC 產品量產落地能力的人工智能芯片設計公司。億智憑藉在音視頻編 解碼以及 AI 視覺算法方面積累了超過 10 年的領先經驗,通過對人工智能 需求市場 的垂直化 、場景 化應用 研究, 在汽車電 子應用 方面, 億智的 產品 線具有車牌識別、路牌識別、文字識別的能力,ADAS 智能算法可實現 4 路全景拼接、全景泊車,行車記錄儀/智能後視鏡/智能中控車機等汽車 電子 產品應用 。目前的 夜視後 視鏡產 品,長 焦夜視攝 像頭、 短焦行 車攝像 頭, 顯示車輛油耗、車速、水溫等,信息全部手機互聯。4G 後視鏡提供在線導 航、在線音樂、雲狗、行車記錄,ADAS 安全駕駛輔助系統。億智的佔道 抓拍產品 ,可進行 車牌檢 測,車 牌識別 ,抓拍路 段時間 規劃、 黑白名 單管 理、車輛 軌跡顯示 、後臺 管理系 統多車 道實時識 別,具 備軟件 能力, 團隊 表示目前的識別成功率達到 95%。志在成為視像安防、汽車電子、智能硬 件領域智能化(AI)賦能的全球領導者。


分享到:


相關文章: