Hardware Club管理合夥人楊建銘:人工智能存在的1%問題

Hardware Club管理合夥人楊建銘:人工智能存在的1%問題 | 行業前沿


Hardware Club管理合夥人楊建銘:人工智能存在的1%問題


本文原文載自風傳媒楊建銘專欄

楊建銘專欄:https://www.storm.mg/article/510764


作者簡介:楊建銘,現任巴黎風險資本公司Hardware Club管理合夥人。臺灣大學電機學碩士、法國HEC Paris MBA,CFA持證人,過去曾在亞洲、硅谷和歐洲半導體行業從業十二年,包含創業四年。

導讀:人工智能真如科幻電影所演的那樣神奇可靠嗎?其實並不見得,在某些場景下,只要發生1%的失誤,可能就會造成無法彌補的巨大傷害。

現在發展氣勢旺盛的人工智能技術,主要以機器學習類神經網絡為主流。雖然募資中的創業者和不同投資哲學的風險資本家滿嘴都是人工智能,彷彿世界上所有的問題都即將被人工智能解決,但機器學習本質上仍然存在我常說的“1%問題”。

所謂的“1%問題”,是指雖然只有極低的機率會出現極端狀況,但一旦出現極端狀況,後果往往非常嚴重,以至於讓整個回報期望值跌落為負值。

我們可以假設一個抽籤遊戲。籤筒中有99支白筆和1支黑筆,抽中白筆可得100美金,抽中黑筆則得賠9900美金,那麼這個抽籤遊戲的淨回報期望值為0。

99% × $100 + 1% × (−$9,900)=$0

基本上這是一個不賺也不賠的遊戲,理性的金融思考邏輯下,任何人都不應該玩這個遊戲,因為期望回報為0。而且波動性大於0(有99%的機會可能賺錢,有1%的機會可能賠錢)比起什麼都不做(波動性為0)就可以穩穩地賺到(或賠掉)1美金來說應該是一個比較不具吸引力的遊戲。

如果上面這個遊戲在抽到黑筆時必須要拿出9900美金的賠款,回報期望值就會變成負值,成為一個不管什麼狀況下,理性的金融人都不會去參與的遊戲。

接下來,我們把這個99%正確率的場景對應到影像辨識,也就是機器學習最早出現突破的領域。

類神經網絡的主要演算法其實在很早之前就已經存在,但實際的應用很有限,除了前任臉書AI大神Yann LeCun當年在貝爾實驗室開發的支票手寫辨識機器得到廣泛的應用以外,大部分通用影像辨識仍然錯誤率很高,而且速度奇慢無比。

21世紀前十年,關於電腦永遠無法擊敗人腦的說法常常採用一個簡單的例子來反駁:小孩子沒什麼辨別能力,但只要看過貓幾次,不需要特別學習就可以十拿九穩地辨認出任何外貌的貓,但這簡單的問題電腦卻掙扎半天還是頻頻出錯。


機器學習式的人工智能是一個大陷阱

不過,在研究者發現使用繪圖芯片(GPU)進行類神經網絡運算的速度,遠比用中央處理器(CPU)快很多後,事情開始有了爆發性的進展。

2012年的ImageNet影像辨識大賽(ILSVRC,ImageNet Large Scale Visual Recognition Challenge)中,一個深層卷積網絡達成16%的辨識錯誤率,兩年後的贏家則一舉突破降至7%;2015年年底,機器的辨識錯誤率達到3.6%,超越人類5%的水平;2017年,ILSVRC大賽的38支隊伍中更是有高達29支隊伍的機器辨識錯誤率都成功突破5%。看來在各種影像辨識的任務中,使用任勞任怨的機器取代任性的人類已經是不可逆的進程。

但是以上的案例都只討論到錯誤的概率,並沒有討論到各種不同的場景,這裡我們要引入剛才定義的“1%問題”,來檢視現有機器學習式的人工智能系統是一個很大的陷阱。


Hardware Club管理合夥人楊建銘:人工智能存在的1%問題



場景一:傳統安保

傳統安保指的是人類實時監看保安攝影系統,在電影或電視劇中也常常出現這樣的場景:兩三個穿著工作裝的保安盯著十幾個分割屏幕,結果一聊天分心,讓變態殺人狂成功避過監視進入他的目標區域。

保安不可能做100%毫無疏漏,因此這門生意本來也就是概率問題。聘用更多人監看電視就可以降低疏漏率,但是邊際效果下降,成本上升。在用戶能夠接受的費用範圍內,用戶和安保公司簽署的合約中需接受一定的總體疏漏概率,並追加同樣是概率問題的保險制度,從而得到一個可行的商業模式。

如果使用影像辨識系統來取代坐在屏幕前監看的人類,成本多半可以降低,而且疏漏率更是遠比會打瞌睡和偷懶的人類低。因此,用戶可以享受更有保障的安保服務,安保公司也有機會賺到更多的錢,儘管疏漏率仍然不會降到0,但這是一個真正有用的機器學習應用場景。


場景二:行事曆自動排程

風險資本家的日常都是一場接著一場的會議,但是不同於企業內部會議只要排時間,他們的會議分散在世界各地,中間還穿雜著各種電話會議,外加大量的出差,這就代表跟會議對象確認時間是一件非常耗時的事情,郵件一來一回可能花兩天時間,但還是安排不好一場會議。

傳統的解決方案是聘請秘書或者助理,好的秘書或者助理會根據會議重要性、敏感性、時區、合夥人飛行狀況、班機延誤風險等各種因素,和對方進行適當的會議時間、地點和方式協商。


Hardware Club管理合夥人楊建銘:人工智能存在的1%問題


​​


當然這樣等級的秘書或者助理很貴,不是大家都負擔得起,我自己常常遇到不那麼專業的秘書,把事情搞砸的次數也不算少。Hardware Club因為旗下管理基金總規模還不大,所以並沒有特別編列聘用秘書或助理的預算,大多是合夥人自己排程,也因此很多同事都下班了,但還能看得到合夥人在回覆郵件,安排下一次出差的會議。

因此,我也終於理解當年包括DCM Ventures、FirstMark Capital、Two Sigma Ventures、Softbank Capital在內的多家知名風險管理公司為什麼投資並大肆吹噓一家位於紐約的新創公司——x.ai。

x.ai使用機器學習,用電腦秘書自動分析來信內容,並以自然語言回信請求安排會議,然後根據對方回應的文字內容(時間衝突、地點衝突、時區錯誤等信息)進行新的時間和地點確認,最後成功達成共識後就自動寫進使用者的行事曆。

最終理想狀態是機器跟機器對話,因為這樣一來就不需要分析自然語言,可以直接將日程寫進行事曆。所以,能夠理解前因後果和對話背景的自然語言人工智能能力就變得十分重要。

但在我看來,x.ai的商業考量從第一天開始就有邏輯上的缺陷:會忙到需要秘書或助理幫忙協調行事曆的人,正是因為行事曆項目又多又重要,才有動力去使用x.ai的系統,希望能降低一些成本。

但類神經網絡機器學習基本上是一個從很大的輸入輸出資料庫,提煉出以簡馭繁的模型方法,是一個縮減資訊量的過程,理論上不可能達到100%正確,永遠都存在搞錯的概率。就算做到99%正確,比一般助理更可靠,也不見得有意義。因為只要搞錯的那1%行事曆事項涉及到非常關鍵的人事物(例如:有意投資基金的機構法人、打算收購公司的大企業負責人等),可能導致的損失會遠遠超過之前因為換成機器而節省下來的成本。

我可以理解為什麼分身乏術的風險資本家,有可能因為自己排會議的痛苦經驗,而覺得自動排程行事曆是一個很棒的商業點子,加上遇到很厲害的人工智能創業者,因此決定投資。但是我高度懷疑這些風險資本家,現在是否仍然依賴這樣的軟件服務來安排自己的行程——因為我實在無法想像當一個風險資本家跟基金投資人重要的會議被安排錯誤時,他可以接受“平均錯誤率比人類低”的藉口。


場景三:自動駕駛

上面所提的“平均錯誤率比人類低”將我們帶到目前1%問題可能最嚴重,但偏偏卻又是各方重金押注的領域:自動駕駛。

兩年前,當特斯拉首次有用戶因為使用自動駕駛而遇難時,馬斯克在推文上表示特斯拉的肇事死亡率仍然遠低於一般汽車市場總體統計數據,暗示特斯拉的自動駕駛系統比人類駕駛更好,所以不應該被責怪。

但這種看似很典型的、很理性的工程師邏輯忽略了一件很重要的事情:當100個人開著100臺車,因駕駛人的問題發生一件致死車禍時,其他的99個人和99臺車並不會被一概而論。換言之,這個系統是分散的,每個駕駛人互相獨立不相干。整體來說只要肇事率維持在1%,系統並不會被咎責。


Hardware Club管理合夥人楊建銘:人工智能存在的1%問題



但如果是特斯拉所提供的自動駕駛有1%的肇事率,那就不是一個分散式系統問題,而是一箇中央系統的問題,被咎責的包含其它九十九臺安全無恙的車子,而可能導致的賠償金或者刑罰也是根據一百臺計算。

2009年美國豐田汽車暴衝致死事件,除了造成大量汽車召回以及車廠經濟損失,豐田家族繼承人也被拖到美國國會面前羞辱,更別提品牌受到的重創。10個月後當調查結果終於出爐,正式排除豐田的責任,並將多數相關事件的肇事原因歸屬於駕駛人,但這時對豐田的永久性傷害已經造成。

同理,特斯拉(平均水平,而是要做到更低的數量級,才能避免因為1%問題而導致的全或者任何車廠)的自動駕駛系統,目標也不能僅僅是肇事率低於大眾盤皆輸。

結論:機器學習類神經網絡本質上是一個或然率的系統,用來顛覆原本就是建立在或然率上的商業(例如偵測信用卡盜刷)是非常適合的,因為只要人工智能的表現能夠比既有的或然率優異,企業就能實現更低成本和更高獲利。

但如果或然率是結果,而且本質上存在“1%問題”(單一事件可能導致巨大損失),那麼就不能單純用錯誤率較低的機器學習類神經網絡取代,因為只要出現一隻黑天鵝,就可以否決所有天鵝都是白色的論點。


分享到:


相關文章: