自動駕駛系統入門(四)- 車載攝像頭

1.1 工作原理

目標物體通過鏡頭(LENS)生成光學圖像投射到圖像傳感器上,光信號轉變為電信號,再經過A/D(模數轉換)後變為數字圖像信號,最後送到DSP(數字信號處理芯片)中進行加工處理,由DSP將信號處理成特定格式的圖像傳輸到顯示屏上進行顯示。

1.2 攝像頭主要硬件組件

1)鏡頭組(lens)- 鏡頭組由光學鏡片、濾光片和保護膜等組成;

2) 圖像傳感器 - CMOS感光元件

MOS圖像傳感器(CIS)是模擬電路和數字電路的集成。主要有四個組件構成:微透鏡、彩色濾光片(CF)、光電二極管(PD)、像素設計;


自動駕駛系統入門(四)- 車載攝像頭

圖1. CIS結構和CIS成像原理

3) DSP(數字信號處理芯片)

注:鏡頭組、CMOS芯片和膠合材料等組裝成模組

自動駕駛系統入門(四)- 車載攝像頭

圖2. 攝像頭硬件構成

1.3 基本工作流程

工作流程: 圖像輸入 — 預處理 — 特徵提取 — 特徵分類 — 匹配 — 完成識別

即輸入攝像頭的數據,以每幀信息為基礎進行檢測、分類、分割等計算,最後利用多幀信息進行目標跟蹤,輸出相關結果;

1)預處理包括成幀、顏色調整、白平衡、對比度均衡、圖像扭正等工作;

2)特徵提取在預處理的基礎上提取出圖像中的特徵點;

3)目標識別是基於特徵數據的輸出,對圖像中的物體進行識別分類 —— 人 ,車 、交通標誌等,運用到機器學習、神經網絡等算法。

1.4 車載攝像頭類別

1.4.1 按攝像頭的安裝位置不同,可分為前視、側視、後視和內置四個部分

自動駕駛系統入門(四)- 車載攝像頭

表1. 不同佈置位置的攝像頭

1.4.2 車載攝像頭按功能應用可分為行車輔助類、駐車輔助類與車內人駕駛員監控三大部分

1)行車輔助類:行車記錄儀、車道偏離預警、開門預警, 盲區監測及交通標示識別等

a、智能前視(單目/雙目/三目):動態物體檢測(車輛、行人)、靜態物體檢測(交通信號燈、交通標誌、車道線等)和 可通行空間劃分等。

b、側視輔助(廣角):用於行車過程中監測後視鏡盲區內的動態目標;

c、夜視輔助(夜視攝像頭):用於夜間或其他光線較差的情況下更好的實現目標物體的檢測;根據工作原理的不同,目前夜視系統主要分三類:微光夜視技術、被動熱成像夜視技術、主動紅外夜視技術。

自動駕駛系統入門(四)- 車載攝像頭

圖3. 行車輔助類攝像頭

2)駐車輔助類:倒車影像/360環視

360環視(廣角/魚眼):主要用於低速近距離感知;系統同時採集車輛四周的影像,經過圖像處理單元畸變還原→視角轉化→圖像拼接→圖像增強,最終形成一幅車輛四周無縫隙的 360 度全景俯視圖。

自動駕駛系統入門(四)- 車載攝像頭

圖4. 360環視系統框架及圖象輸出效果示意圖

3)車內駕駛員監控(疲勞檢測)

a、駕駛員監控系統功能定義:

主要針對駕駛員的疲勞、分神、不規範駕駛等危險情況進行一層或多層預警,要求在全部工況環境下(包含暗光、夜晚、逆光等)工作,且不受駕駛員衣著影響;

b、功能算法

DMS的視覺算法基於深度學習,以偉世通旗下的AllGoEmbedded系統為例,其DMS的基本流程如下:

自動駕駛系統入門(四)- 車載攝像頭

圖5. 駕駛員疲勞檢測

臉部檢測:將其歸為物體識別與分類問題,通過訓練深度神經網絡設計一個魯棒性好的臉部檢測器。

頭部特徵:由三個姿態角構成,基於CNN設計頭部跟蹤系統,以圖像中臉部區域為輸入,以三維姿態角為輸出。

眼神檢測:綜合眼神檢測網絡與頭部姿態角度輸出。

眨眼檢測:包括眨眼信息(速率與時差)和眼部信息(開與合)。眼部信息為二分類問題,需要神經網絡較小;眨眼信息需要分析過去數幀。

2、單目與雙目測距原理對比

2.1 單目攝像頭

1)單目攝像頭工作流程同樣遵循圖像輸入、預處理、特徵提取、特徵分類、匹配、完成識別幾個步驟,其測距原理是先匹配識別後估算距離:通過圖像匹配識別出目標類別,隨後根據圖像大小估算距離;

2)單目測距的算法包括傳統機器學習算法和深度學習中的卷積神經網絡(CNN)算法;

a、傳統算法

傳統機器學習算法中,通過圖像特徵描述子SIFT、SURF、BRIEF進行特徵點提取和匹配,可用特徵很多,包括角點、邊緣點、暗區的亮點及亮區的暗點等;

自動駕駛系統入門(四)- 車載攝像頭

圖6. 傳統算法工作流程示意簡圖

b、深度學習算法

CNN主要針對圖像處理,基本原理是通過多層過濾得到越來越抽象的圖像特徵,每個濾波器(由卷積核組成)學習並進行特徵值提取,無需人工設計參數提取特徵;

自動駕駛系統入門(四)- 車載攝像頭

圖7. 深度學習算法工作流程示意簡圖

兩種算法的本質區別在於手動提取特徵與機器學習特徵,因此相比較而言,傳統算法提取效率更低,魯棒性不及深度學習算法;

2.2 雙目攝像頭

雙目攝像頭測距原理與人眼類似,通過對圖像視差進行計算,直接對前方景物進行距離測量;從視差的大小倒推出物體的距離,視差越大,距離越近;

雙目測距步驟:相機標定 —— 雙目校正 —— 雙目匹配 —— 計算深度信息(測距)

1)相機標定

攝像頭由於光學透鏡的特性使得成像存在著徑向畸變;由於裝配方面的誤差,傳感器與光學鏡頭之間並非完全平行,因此成像存在切向畸變;雙目攝像頭的定標不僅要得出每個攝像頭的內部參數,還需要通過標定來測量兩個攝像頭之間的相對位置(即右攝像頭相對於左攝像頭的旋轉矩陣R、平移向量t)。

2)雙目校正

雙目校正是根據攝像頭定標後獲得的單目內參數據(焦距、成像原點、畸變係數)和雙目相對位置關係(旋轉矩陣和平移向量),分別對左右視圖進行消除畸變和行對準,使得左右視圖的成像原點座標一致、兩攝像頭光軸平行、左右成像平面共面、對極線行對齊。

3)雙目匹配

雙目匹配的作用是把同一場景在左右視圖上對應的像點匹配起來,這樣做的目的是為了得到視差圖。雙目匹配被普遍認為是立體視覺中最困難也是最關鍵的問題。

4)計算深度信息

如下圖所示,P是待測物體上的某一點,OR與OT分別是兩個相機的光心,點P在兩個相機感光器上的成像點分別為P和P’(相機的成像平面經過旋轉後放在了鏡頭前方),f為相機焦距,B為兩相機中心距,Z為深度信息,設點P到點P’的距離為dis,則:

自動駕駛系統入門(四)- 車載攝像頭

根據相似三角形原理:

自動駕駛系統入門(四)- 車載攝像頭

可得:

自動駕駛系統入門(四)- 車載攝像頭

(公式中,焦距f和攝像頭中心距B可通過標定得到,因此只要獲得XR-XT(即視差d)的值即可求得深度信息;)

自動駕駛系統入門(四)- 車載攝像頭

圖8. 雙目測距原理示意圖

2.3 單/雙目方案的優劣勢分析

1)單目攝像機

優勢:成本較低,對計算資源的要求不高,系統結構相對簡單;

劣勢/難點:(1)需要不斷更新和維護一個龐大的樣本數據庫,才能保證系統達到較高的識別率;(2)無法對非標準障礙物進行判斷;(3)距離並非真正意義上的測量,準確度較低。

2)雙目攝像機

優勢:(1)沒有識別率的限制,因為從原理上無需先進行識別再進行測算;(2)直接利用視差計算距離,精度比單目高;(3)無需維護樣本數據庫,因為對於雙目沒有樣本的概念。

劣勢/難點:(1)計算量非常大,對計算單元的性能要求非常高,這使得雙目系統的產品化、小型化的難度較大。(2)雙目視覺系統通過估計視差來測距,而視差是通過立體匹配算法得來的,立體匹配是計算機視覺典型的難題;(3)雙目在線標定比單目要更復雜些,因為雙目匹配需儘量簡化成1-D搜索,所以需要通過stereo rectification將兩個鏡頭光軸方向平行並和基線垂直。

3 、車規級攝像頭性能要求

1、耐高溫 :車載攝像頭需在-40℃~85℃範圍內都能正常工作,且能適應溫度的劇烈變化;

2、抗震:車輛在不太平坦的路面行駛會產生較強的震動,因此車載攝像頭必須能抗各種強度的震動;

3、防磁 : 車輛啟動時會產生極高的電磁脈衝,需要極高的防磁性能;

4、防水 : 載攝像頭密封要非常嚴實,滿足在雨水中浸泡數日仍可正常使用;

5、使用壽命 : 使用壽命至少為8~10年才能滿足要求;

6、超廣角: 側視環視攝像頭必須是超廣角的,水平視角達 135°;

7、高動態: 車輛行駛速度快,攝像頭面對的光線環境變化劇烈且頻繁,要求攝像頭的CMOS 具有高動態特性;

8、低噪點: 在光線較暗時能有效抑制噪點,特別是要求側視和後視攝像頭即使在晚上也能清楚的捕捉影像。

自動駕駛系統入門(四)- 車載攝像頭

圖9. 車載攝像頭工藝流程

4、車載攝像頭的內外參標定

機標定的目標就是為了獲得相機的內參數和相機的外參數;

4.1 內參標定

1)內參矩陣(Sx,Sy,Cx,Cy,f):代表相機的內部結構參數

參數說明:Sx和Sy代表相機芯片單個像素的物理尺寸Sx = 1/dx, Sy = 1/dy,單位是像素/毫米,一般情況下Sx=Sy,除非單個像素點在成像儀上是矩形而不是正方形。 Cx和Cy分別代表相機芯片的中心可能的偏移,這是因為芯片的安裝通常無法絕對精準。 f代表相機的焦距,fx = f * Sx,fy=f * Sy。

2)畸變參數:k1,k2,k3徑向畸變係數,p1,p2是切向畸變係數。(五個畸變參數,一般只需計算出k1,k2,p1,p2;對於魚眼攝像頭等徑向畸變特別大的才需要計算出k3。)徑向畸變發生在相機座標系轉圖像物理座標系的過程中;而切向畸變是發生在相機制作過程,其是由於感光元平面跟透鏡不平行。

a、徑向畸變:產生原因是光線在遠離透鏡中心的地方比靠近中心的地方更加彎曲,徑向畸變主要包含桶形畸變和枕形畸變兩種。

b、切向畸變:產生的原因透鏡不完全平行於圖像平面,這種現象發生於成像儀被粘貼在攝像機的時候。

3)內參的標定方式主要可以歸為三類:傳統的標定方法、基於主動視覺的標點以及自標定;目前常用的標定方法還是傳統標定方法,比如張氏標定。

4.2 外參標定

相機外參數是相機的旋轉矩陣R和平移向量t;旋轉矩陣和平移矩陣共同描述瞭如何把點從世界座標系轉換到攝像機座標系;

1)旋轉矩陣:描述世界座標系->相機座標系的旋轉變換

2)平移矩陣:描述世界座標系->相機座標系的平移變換

世界座標系(world coordinate),也稱為測量座標系,是一個三維直角座標系,以其為基準可以描述相機和待測物體的空間位置。世界座標系的位置可以根據實際情況自由確定。

相機座標系(camera coordinate),也是一個三維直角座標系,原點位於鏡頭光心處,x、y軸分別與相面的兩邊平行,z軸為鏡頭光軸,與像平面垂直。

5、感知模塊中攝像機的技術特點解析

5 .1 優勢分析

1)相比於毫米波雷達,目前攝像頭的主要優勢在於:

a、目標識別與分類 - 目前普通的3D毫米波雷達僅可以檢測到前方是否有障礙物,而無法精準識別障礙物的大小和類別;例如:各類車道線識別、紅綠燈識別以及交通標誌識別等;

b、可通行空間檢測(FreeSpace) - 對車輛行駛的安全邊界(可行駛區域)進行劃分,主要對車輛、普通路邊沿、側石邊沿、沒有障礙物可見的邊界、未知邊界進行劃分;

c、對橫向移動目標的探測能力 ,比如對十字路口橫穿的行人以及車輛的探測和追蹤;

d、定位與地圖創建 - 即視覺SLAM技術,雖然目前也有用毫米波雷達做SLAM的,不過視覺SLAM技術更加成熟,也更有應用前景;

2)在自動駕駛系統中,激光雷達與攝像頭感知作用比較類似,但相比激光雷達,其優勢為:

a、紅綠燈識別及交通標示識別

b、成本優勢,且算法及技術成熟度比較高

c、物體識別率高

5.2 劣勢分析

1)受天氣、光照變化影響大,極端惡劣天氣下視覺傳感器會失效;

2)測距/測速性能不如激光雷達和毫米波雷達;

6、車載智能前視像頭(單目/雙目)關鍵參數

1)探測距離

2)水平視場角

3)垂直視場角

4)分辨率

當攝像機攝取等間隔排列的黑白相間條紋時,在監視器(比攝像機的分辨率要高)上能夠看到的最多線數,當超過這一線數時,屏幕上就只能看到灰濛濛的一片,而不再能分辨出黑白相間的線條。

5)最低照度

最低照度,即圖像傳感器對環境光線的敏感程度,或者說是圖像傳感器正常成像時所需要的最暗光線。它是當被攝物體的光照逐漸降低時,攝像機的視頻信號電平低於標準信號最大幅值一半時的景物光照度值。

6)信噪比

輸出信號電壓與同時輸出的噪聲電壓的比值;

7)動態範圍

攝像機拍攝的同一個畫面內,能正常顯示細節的最亮和最暗物體的亮度值所包含的那個區間。動態範圍越大,過亮或過暗的物體在同一個畫面中都能正常顯示的程度也就越大。


分享到:


相關文章: