邊緣運算將成主流 仍面臨運算能耗、存儲器頻寬等挑戰

邊緣運算將成主流 仍面臨運算能耗、存儲器頻寬等挑戰

邊緣運算將成主流 仍面臨運算能耗、存儲器頻寬等挑戰

由於傳感器將產生太多數據,難以都傳到雲端處理,因此邊緣運算正在成為主流趨勢。

根據Semiconductor Engineering報導,物聯網(IoT)設備的最初構想是,簡單的傳感器會將原始數據傳送到雲端,透過1個或多個閘道器進行處理。這些閘道器可能位於公司、住宅、工廠,甚至連網車內。但日益明顯的是要處理的數據太多,這種方法實不可行。

三星電子(Samsung Electronics)負責HBM行銷的Tien Shiah表示,1臺PC每天將產生90MB的數據。1輛自駕車每天產生4TB,連網飛機則為50TB。其中大部分為無用數據。

預處理若在本地完成,則僅需在雲端處理更少數據,就能以更低成本和更少功率實現更好的效能,從而實現自駕車、無人機甚至機器人所需的快速反應。這些都是邊緣運算突然獲得如此多關注的原因。它讓運算任務更接近數據源,就自駕車來說,最終運算可能在會傳感器本身進行。

這對人工智能(AI)、機器學習(ML)和深度學習(DL)應用也很重要。AI/ML/DL的關鍵是能在本地設備上進行推論,從而提高安全性和性能。然而,推論的更大問題是存儲器吞吐量。Rambus產品管理高級總監Frank Ferro表示,存儲器再次成為瓶頸。許多正在出現的應用,無論是AI或ADAS,都需要更高的存儲器頻寬。

此外,這些應用大多是由電池供電,或須在高度受限的電源預算內生存,而開發這類設備的難度開始變得更具挑戰性。

邊緣運算最大問題之一是它是一種轉型技術,會隨著發展而被定義。目前實際上仍無法訂購能支援特定IoT設備、基礎設施和運算要求組合的專用邊緣運算產品。

NVIDIA於3月底宣佈與安謀(ARM)合作,將NVIDIA Deep Learning加速器架構與ARM的Project Trillium機器學習平臺整合,讓芯片製造商可輕易將機器學習功能添加到IoT設備。英特爾在2月亦推出14款新的Xeon處理器。

英特爾(Intel)和NVIDIA/ARM產品都能在靠近端點的地方增加更多處理能力,但這兩種產品都不是將數據傳回雲端的理想選擇。ZK Research首席分析師Zeus Kerravala表示,NVIDIA與ARM的夥伴關係,以及英特爾宣佈的邊緣處理器都是為需要增加處理能力的設備、閘道器等而設計的基礎產品。

家庭IoT市場最終可能會超過IIoT,但IIoT正在設定步伐和議程。市場研調機構IHS Markit分析師Julian Watson表示,對具有邊緣運算能力的IoT閘道器的需求正在成長。需求主要來自3個特定領域:為未直接連到網路的低功耗節點,如基於低功耗藍牙(BLE)或Zigbee的傳感器提供橋接;過濾流量,決定應在邊緣處理哪些數據以及需將哪些數據發送到雲端;管理這些邊緣設備的安全性。

IHS Markit執行董事Michael Howard則認為,IoT/邊緣閘道器至少應能做到以下幾點:1.透過對重複數據進行整合,縮小來自IoT設備的原始數據量。2.將數據轉換為上游應用程式可讀取的格式。3.具備能判斷將獲得何種數據及來自哪種設備的上游應用程式。4.包含如何組織數據並對其進行優化的相關資訊。

Howard表示,閘道器若無法將原始數據細化為緊湊且實用的數據就向上遊推送,只會浪費時間和頻寬。處理必須在數據發生的地方完成,最好不止一次。

所有主要系統供應商都渴望進入市場,但對閘道器的需求正在成長。此問題比從幾個傳感器收集溫度數據更復雜。特別是在IIoT中,每個垂直市場傳統的SCADA和其他自動化系統通常都是封閉、專有的,對新通訊技術不友好,並且不可能快速擺脫。

ARM執行長Simon Segars表示,現在有這麼多的下一件大事(Next Big Thing)將發生,很難判斷要從哪裡著手。新的通訊協議,無論是5G、LoRA、NBIoT等新技術,都需要半導體設備的大量創新。目前AI正在驅動雲端芯片。在邊緣則是推論正在推動設計的創新。


分享到:


相關文章: