iPhone 的「第四顆攝像頭」位置,為什麼給了激光雷達?

iPhone 的「第四顆攝像頭」位置,為什麼給了激光雷達?

不按「常理」出牌,一直是蘋果的「常理」。


來源 | 愛範兒 (ID:ifanr)


一個,兩個,三個,四個……旗艦手機攝像頭從 2016 年開始,以大約每年 1 個攝像頭的數量在增長,有人調侃說麻將「八筒」將是所有智能手機攝像頭的終極歸宿。

今年全新一代 iPhone 發佈前,不少人推測 iPhone 12 Pro Max 會配備第四顆攝像頭,沒想到 iPhone 12 Pro 系列在寶貴的「第四顆攝像頭」位置,放置了一顆 LiDAR(激光雷達)。

不按「常理」出牌,一直是蘋果的「常理」。


iPhone 的「第四顆攝像頭」位置,為什麼給了激光雷達?

LiDAR 是什麼?

iPhone 的「第四顆攝像頭」位置,為什麼給了激光雷達?

豎著看,iPhone 12 Pro 系列手機攝像頭模組右下方圓形黑色區域即為 LiDAR

LiDAR 的全稱是Light Detection And Ranging,中文名激光雷達,是以發射激光束探測目標的位置、速度等特徵量的雷達系統,由激光發射機、光學接收機、轉檯和信息處理系統等組成,可獲得目標的距離、方位、高度、速度、姿態、甚至形狀等參數,從而進行探測、跟蹤和識別。

拋開專業術語,通俗理解 iPhone 12 上的 LiDAR,它就是一個能探測物體距離和記錄深度信息的微型裝置,和手機攝像頭差不多大小。

工作的時候,LiDAR 可以實現兩個重要功能。

1. 測算物體離手機的大致距離

iPhone 的「第四顆攝像頭」位置,為什麼給了激光雷達?

通過發射肉眼不可見的激光束來測算距離

2.記錄投射範圍內事物的深度信息

iPhone 的「第四顆攝像頭」位置,為什麼給了激光雷達?

目前蘋果給出的 LiDAR 範圍是最遠五米,也就是說,搭載 LiDAR 的 iPhone 12 Pro 系列手機,理論上可以測算和記錄 5 米範圍左右的距離和深度信息。


iPhone 的「第四顆攝像頭」位置,為什麼給了激光雷達?

LiDAR 和 ToF 區別在哪裡?

說到估算物體距離和記錄深度信息,不少安卓廠商早在部分機型上搭載了 ToF(Time-of-Flight,飛行時間)傳感器來實現這兩個功能。

例如 P40 Pro 有一顆 3D 深感攝像頭(ToF),可以深度感知物體深度信息,實現大片般的景深效果。

iPhone 的「第四顆攝像頭」位置,為什麼給了激光雷達?

目前部分手機廠商大多采用 iToF(間接飛行時間傳感器),而 LiDAR 屬於 dTof(直接飛行時間傳感器)。

iToF 和 LiDAR 雖說都是 ToF,但區別不小。

第一,發出的「信號」不同。

iToF 發出的是經過正弦波調製,明暗強度呈規律變換的光信號。LiDAR 發出的是激光束。

iPhone 的「第四顆攝像頭」位置,為什麼給了激光雷達?

dToF 原理

第二,估算距離的原理不同。

iToF 靠感知正弦波光信號的差異來「估算」其從發射到反射回來的距離。LiDAR 是激光直接測算距離。

iPhone 的「第四顆攝像頭」位置,為什麼給了激光雷達?

iToF 原理

第三,精度範圍、測算速率和抗干擾能力不同。

iToF 的信號很容易被幹擾,測算精度隨著距離變遠而下降,測算也相對較慢,比較適合用於釐米範圍內的測距。

LiDAR 的激光束抗干擾能力強,理論上測算精度不隨距離變遠而下降,測算更快,更適合遠距離測距。

最後, iToF 更易小型化,dToF 集成小型化難度更高,所以兩者有較為明顯的商用場景差異,iToF 大多數用在手機上,dToF 比較常用在汽車和無人機等大型裝置上。

iPhone 的「第四顆攝像頭」位置,為什麼給了激光雷達?

汽車雷達

LiDAR 比 iToF 快、準、遠,但集成難度更大,成本更高。蘋果能把 LiDAR 集成在 iPhone 12 攝像頭模組裡,想必是花了一番心思的。


iPhone 的「第四顆攝像頭」位置,為什麼給了激光雷達?

為什麼蘋果選 LiDAR?

或許 iPhone 有一天會變成四五六攝手機,但在被人討論「iPhone 拍照掉隊了嗎」的緊要關頭,選擇把寶貴的「第四顆攝像頭」位置給 LiDAR,足以可見蘋果對未來的佈局多麼重視。

蘋果究竟想幹嘛?

iPad Pro 2020 的官方網頁上,蘋果直截了當給出了答案,LiDAR 現階段主要就是為 AR(Augmented Reality 增強現實)服務的。

iPhone 的「第四顆攝像頭」位置,為什麼給了激光雷達?

在手機攝影幾乎到天花板的時刻,蘋果選擇了一條和其它廠商不一樣的路,沒有選擇上高像素和多倍光學變焦,而是加了 LiDAR,讓用戶記錄「深度信息」。

用戶能記錄深度信息的好處非常明顯,我把它總結為「雙向融合」。

一個是現實虛擬化,也就是 AR,可以用攝像系統和 LiDAR 把現實事物的各種信息記錄下來,再虛擬展示在屏幕上,從任意角度近距離觀察,也打破了時間和空間的限制。

iPhone 的「第四顆攝像頭」位置,為什麼給了激光雷達?

沒有 iPhone 12 的深度信息,也就不可能使用 AR 觀看虛擬 iPhone

另一個是虛擬現實化,也就是 VR,可以給虛擬的事物增加現實維度的信息,讓虛擬事物在網絡裡「活」出現實事物的特徵。

iPhone 的「第四顆攝像頭」位置,為什麼給了激光雷達?

有了深度信息,照片不再是一個平面

iPhone 的「第四顆攝像頭」位置,為什麼給了激光雷達?

動態 emoji 可以看做簡化版的 VR,虛擬人物有了真實人物的面部深度信息數據

這兩種融合都離不開深度信息,深度信息也是 AR 和 VR 打通的橋樑。比如老師用可以記錄深度信息的 AR 設備自拍直播教學,學生戴上 VR 眼鏡聽課,每個學生看到的老師都是虛擬形象,但虛擬形象的表情和動作細節特徵都是一樣的,很難再單純用 AR 或 VR 簡單描述。

iPhone 的「第四顆攝像頭」位置,為什麼給了激光雷達?

電影《頭號玩家》展現了現實和虛擬的融合,推薦配合本文「食用」


iPhone 的「第四顆攝像頭」位置,為什麼給了激光雷達?

再來說說手機

手機對於人類社會來說是什麼?

這個問題很難回答。往小了說,它不過就是一臺便捷的通訊工具,往大了說,它對人類社會的影響可以說無比深遠。

回顧手機出現之後的人類歷史,用戶對信息處理交換的共性需求一直是去中心化。

一開始用戶的共性需求是提升信息交流效率,所以手機的核心功能是打電話發短信。信息交流的中心節點 —— 被線綁住的固定電話、郵件、傳真、郵電等被徹底邊緣化,如今只是一種特殊場景下的補充工具。

iPhone 的「第四顆攝像頭」位置,為什麼給了激光雷達?

被電話線拴住的中心

接下來用戶的共性需求是打破信息不平衡,進一步去中心化,每個人都想要有自己的聲音,所以手機的核心功能變成了社交,大量社交 app 異軍突起。

正是由於蘋果的全觸屏形態產品 iPhone,在恰當的時機精準高效地解決了用戶在第二階段的共性需求痛點,蘋果才能打敗諾基亞,一躍成為市場綜合第一名。

現在,用戶的共性需求會是什麼呢?

用戶需要進一步去中心化,不僅要發聲,還要把自己的個體文明儘可能記錄並傳遞下去,讓自己的個體文明在人類文明史上留下記錄。

iPhone 的「第四顆攝像頭」位置,為什麼給了激光雷達?

iPhone 廣告片展示 iPhone 的生活記錄功能

很久以前,芸芸眾生是沒有歷史存在感的,更不能掌握記錄自身的工具。手機的出現,讓存儲在服務器上的數據變成了「個人史書」,這些渺小如螻蟻的「個人史書」又發揮著無與倫比的影響力,共同組成了一部人類「大史書」—— 人類社會共同的大數據庫,個體不再是歷史裡可以直接忽略的「無名」,也不是可以大筆一揮一筆勾銷的某某,而是在人類共同「大史書」裡一個個有血有肉的鮮活存在。

現在,LiDAR 給了我們更高維度的「書寫」能力,在聲音、平面圖像、行為習慣等維度之上,增加了深度信息,突破了平面限制。


iPhone 的「第四顆攝像頭」位置,為什麼給了激光雷達?

永生,從深度信息開始

對於普通用戶而言,目前 LiDAR 帶來的直觀幫助還不是很明顯,更多屬於「有更好,沒有也沒多大影響」的程度。

它帶來的潛藏益處卻是非常明顯的,如果條件和相機 app 允許,每個人一生中經歷的每個場景,每個瞬間,遇到的每個人,看過的每朵花,摸過的每件餐具,每張自拍,都可以被 LiDAR 記錄下深度信息,只要時機和技術成熟,數據量足夠大,再配合以聲音、圖像、行為習慣等數據,完全可以在服務器中創造出一個虛擬的世界和虛擬的自己,和真實的世界和真實的自己一模一樣,甚至等待科技水平足夠高的那天,可以在現實世界中造出一個自己。

iPhone 的「第四顆攝像頭」位置,為什麼給了激光雷達?

如果《西部世界》裡的機器人都有一個對應的真實人類,那麼拿到真人的深度信息則是製作機器人的第一步

如果哪天科技更加發達,可以賦予這個虛擬的自己一套「人性的算法」,百年之後,有人想我們了,只需要進入虛擬世界,就能看到一個「活著」的我們,何嘗不是做到了另一種形式的永生?


分享到:


相關文章: