C-V2X能做什麼?為什麼需要5G?

C-V2X能做什麼?為什麼需要5G?

C-V2X能做什麼?為什麼需要5G?

一、 什麼叫自動駕駛?Level 0:人工駕駛,無駕駛輔助系統,僅提醒。

Level 1:輔助人工駕駛,可實現單一的車速或轉向控制自動化,仍由人工駕駛(如定速巡航、ACC)。

Level 2:部分自動駕駛,可實現車速和轉向控制自動化,駕駛員必須始終保持監控(如車道中線保持)。

Level 3:有條件自動駕駛,可解放雙手(hands off),駕駛員監控系統並在必要時進行干預。

Level 4:高級自動駕駛,可解放雙眼(eyes off),在一些預定義的場景下無需駕駛員介入。

Level 5:全自動駕駛,完全自動化,不需要駕駛員(driverless)。二、自動駕駛基本原理

關於自動駕駛的基本原理,需瞭解三大關鍵詞:傳感器、數據融合(Data Fusion)、100%安全性決策。傳感器

自動駕駛需要的傳感器系統主要有三種類型:攝像頭、雷達和激光雷達。

攝像頭

攝像頭是自動駕駛必備的傳感器,包括前視、後視和360度攝像系統,後視和360度攝像頭主要提供360度外部環境呈現,前視攝像頭主要用於識別行人、車輛、道路、交通標誌等。

雷達(RADAR)

自動駕駛需要多個雷達傳感器,其功能是無線探測和測距,主要用於盲點檢測、防碰撞、自動泊車、制動輔助、緊急制動和自動距離控制等應用。目前的雷達系統主要基於24GHz和77GHz,相較於24GHz,77GHz在測量距離和速度時具有更高的精度,以及更高的角分辨率,且還具備天線尺寸小、干擾小等優點。

激光雷達(LiDAR)

LiDAR,即Light Detection And Ranging的縮寫,它是一種基於激光的系統,除發射器(激光器)外,系統還具備高靈敏度的接收器。LiDAR主要用於測量靜止和移動物體的距離,並通過處理提供所檢測物體的三維圖像。

LiDAR應用於自動駕駛所面臨的挑戰是,如何克服在雨雪、霧、溫度等環境影響下識別較遠距離的物體,同時,這玩意成本太高,目前不適合汽車領域的大規模部署。

數據融合(Data Fusion)

數據融合就是將不同傳感器(如雷達、攝像頭和激光雷達)數據進行智能化合成,實現不同信息源的互補性、冗餘性和合作性,從而做出更好、更安全的決策。比如攝像頭具有分辨顏色(識別指示牌和路標)的優勢,可易受惡劣天氣環境和光線的影響,但雷達在測距、穿透雨霧等有優勢,兩者互補融合可作出更精確、更可靠的評估和判斷。

100%安全性決策

一旦出現交通事故,重則導致人身傷亡,因此,自動駕駛對技術安全的要求相當苛刻,需實現接近100%的安全性。

簡而言之,自動駕駛就是通過傳感器收集全面的環境信息,再對信息融合處理,並作出接近100%安全性決策。

目前多數人所談的自動駕駛,都是基於汽車本地端的傳感器、數據融合來實現決策的。

但是,你有沒有想過,這種單憑本地端實現的方式存在一些侷限性。

當汽車橫穿十字路口時,自動駕駛能預知從左側高速駛來的大卡車嗎?

由於易受雨、雪、霧、強光等環境影響,攝像頭能始終準確識別指示牌和紅綠燈嗎?當自動駕駛在高速路上以130公里/小時行駛時,攝像機/雷達融合無法安全地檢測到前方超過120米距離外的停車,這將觸發超過5米每平方秒的緊急制動,這是無法接受的。

總之,道路環境異常複雜,雷達、攝像頭和激光雷達等本地傳感系統受限於視距、環境等因素影響,要實現100%安全性,自動駕駛需要彌補本地傳感器所欠缺的感知能力。簡單的理解,本地傳感系統讓汽車實現了“眼觀六路”,但自動駕駛還需要“耳聽八方”。

這就需要C-V2X閃亮登場。

三、C-V2X能做什麼?

C-V2X,C即Cellular,V2X就是vehicle-to-everything,指車與外界的信息交換,它是基於蜂窩網絡的車聯網技術。

C-V2X指從LTE-V2X到5G V2X的平滑演進,它不僅支持現有的LTE-V2X應用,還支持未來5G V2X的全新應用。它基於強大的3GPP生態系統和連續完善的蜂窩網絡覆蓋,可大幅降低未來自動駕駛和車聯網部署成本。

與雷達、激光雷達等傳感器不同,我們可以把V2X視為一種無線傳感器系統的解決方案,它允許車輛通過通信信道彼此共享信息,它可檢測隱藏的威脅,擴大自動駕駛感知範圍,能預見接下來會發生什麼,從而進一步提升自動駕駛的安全性、效率和舒適性。C-V2X被認為是自動駕駛的關鍵推動因素之一。

C-V2X能做什麼呢?還是繼續舉例吧。道路前方彎道處停有一輛拋錨的汽車,但由於正好處於彎道,汽車本地的攝像頭、雷達等傳感器無法檢測到,眼看一場車禍正要釀成悲劇。


分享到:


相關文章: