“人臉識別”,我們還能承受多少風險?

新冠肺炎疫情在全球範圍內暴發之後,眾多科技企業都在遭遇一場重創。

谷歌公司宣佈取消6月之前預期舉辦的全部線下活動;蘋果公司關閉了大中華區之外的所有直營店,原定於3月底舉行的春季新品發佈會或將取消。即使按照最樂觀的估計,在疫情的影響下,全球科技行業的進展至少會推遲半年到一年。

挑戰之下也有機遇並存。《人類簡史》的作者尤瓦爾·赫拉利近日在接受多家媒體採訪時表示,儘管新冠肺炎、艾滋病、埃博拉病毒已經奪走了無數人的生命,但21世紀流行病導致的死亡在總人口所佔比例,比石器時代以來的任何時候都低。

由於人類科技的進步,對疫情的瞭解更多,應對疫情的辦法也更多。在全球共同抵抗疫情傳播的過程中,科技信息的共享尤為關鍵。赫拉利的觀點,似乎與不少科技巨頭不謀而合。

在過去的兩個月期間,中國互聯網企業已率先為同行做出了示範。而從 3月以來,蘋果、微軟、谷歌等國際互聯網企業已經在運用大數據、信息追蹤等技術手段協助各國政府控制疫情的發展。另一方面,Facebook等社交平臺也在遏制疫情期間的虛假廣告,打擊“汙名化”與歧視言論。

在這場疫情戰中,科技為人類帶來的優勢已毋需多言。但隨科技而來的各類風險又如何規避呢?大數據的運用、人工智能的探索對隱私安全、網絡犯罪、社交倫理造成了史無前例的衝擊。科技的工具屬性弱化的同時,是否可能變成攻擊人類的危險武器呢?

科技的開發者與管理者如何思考和應對,對於我們理解這一系列的棘手問題也許有更為直觀的幫助。下文摘編自《工具,還是武器?》,在這本書中,微軟總裁兼首席法務官布拉德·史密斯(Brad Smith)與卡羅爾·安·布朗(Carol Ann Browne)共同就數字化時代下的網絡安全、個人隱私和環境可持續性等問題提出了自己的見解。作者和他們帶領的團隊在實踐中的探索,對於科技行業乃至每一位普通人都有著借鑑和啟示意義。

原文作者 | 布拉德·史密斯、卡羅爾·安·布朗

整合| 李永博

“人臉識別”,我們還能承受多少風險?

《工具,還是武器》作者:(美)布拉德·史密斯、卡羅爾·安·布朗 譯者:楊靜嫻、趙磊 出版:中信出版集團202

1

很多人已經習慣了人臉識別

而不是用密碼解鎖

2002年6月,史蒂文·斯皮爾伯格執導的新片《少數派報告》首映。這部電影是根據科幻小說作家菲利普·迪克1956年的著名短篇小說改編的,以2054年已消滅了犯罪的華盛頓特區為背景,由湯姆·克魯斯主演。劇中,湯姆·克魯斯扮演精英警察部門“預防犯罪小組”的一位主管,這個小組的職責是在兇手實施犯罪前逮捕他們。該小組有權根據三位“先知”所看到的意象實施逮捕,因為這三個人擁有洞悉未來的超自然能力。但是很快,“先知”預測克魯斯自己將犯下謀殺罪行,因此他不得不開始逃亡,躲避自己部門的追捕—在一個所有人和所有行為都受到追蹤的城市裡。

“人臉識別”,我們還能承受多少風險?

《少數派報告》(2002)劇照。

15年之後再回頭看這部影片,值得慶幸的是,這種執法方式看似有些牽強。不過今天,《少數派報告》中的一個場景似乎遠遠早於2054年就已經成為現實。影片中,克魯斯在逃亡時走進了一家蓋普店。這家零售商擁有一項技術,可以識別每一位進店的顧客,並會立即開始在一個顯示屏上展示它認為顧客會喜歡的衣服圖像。有些人可能覺得這個服務很有吸引力,但其他人可能會覺得它們很煩人甚至令人毛骨悚然。簡而言之,進入一家這樣的商店,就好比我們有時候瀏覽完網絡後再去看社交媒體信息,卻發現上面有我們剛剛在網頁上瀏覽之物的廣告。

在《少數派報告》中,斯皮爾伯格希望觀眾思考,科技如何既能被利用也能被濫用——科技可被用來在犯罪實際發生前消除犯罪,可一旦出了問題,它也可能被濫用來侵犯人權。在蓋普商店裡識別克魯斯的技術是依賴於嵌入他體內的一塊芯片。在21世紀的前20年,現實世界的技術進步甚至已經超過斯皮爾伯格的想象,因為今天已經不需要這樣的芯片。人臉識別技術利用基於人工智能的計算機視覺與相機,輔以雲數據,可以識別進入商店的顧客面孔,無論他們是上週還是一小時前曾經來過。這項技術正在為科技行業和政府創造一個先手機會,如何用一種重點突出而又切實具體的方式來處理人工智能的道德和人權問題,而它們能否抓住這個機會,就要看它們怎樣決定來監管人臉識別技術了。

對於大多數人來說,最初簡單場景的應用,如編目和搜索照片,現在已經變得日益複雜。很多人已經習慣了依靠人臉識別,而不是用密碼,來解鎖iPhone或Windows筆記本電腦。其應用不會僅止於此。

“人臉識別”,我們還能承受多少風險?

《越獄》第五季 (2017)裡的人臉識別模仿。

2

面部和指紋一樣獨特

現在,一臺電腦已經可以完成我們幾乎所有人從一出生就能做的事——識別人們的臉。對我們大多數人來說,這在一開始是能夠認出媽媽的能力。養育孩子的樂趣之一,就是在進入家門的時候看到蹣跚學步的孩子激動地向你撲來。這種會一直持續到青少年時期的反應有賴於人類天生的人臉識別能力。雖然這是我們日常生活的基礎,但我們幾乎從不停下來思考是什麼使它成為可能。

事實證明,我們的臉和指紋一樣獨特。我們的面部特徵包括瞳孔之間的距離、鼻子的大小、微笑的樣子和下巴的輪廓。計算機可使用照片來繪製這些特徵並將它們編織在一起,並以此為基礎建立一個數學方程,這些數學方程可以通過算法來訪問。

人們正在把這項技術應用到世界各地,以便改善人們的生活。在某些情況下,這樣做是為了方便消費者。澳大利亞國民銀行正在利用微軟的人臉識別技術開發一種服務,可以讓顧客走到ATM前,無須銀行卡即可安全取款。這些ATM可以識別顧客的面孔,然後他們就可以輸入取款密碼並完成交易。

在其他場景中,這種技術可帶來更大的好處。在華盛頓特區,美國國家人類基因組研究所正在利用人臉識別技術幫助醫生診斷一種被稱為DiGeorge綜合徵(DGS)或22q11.2缺失綜合徵的疾病。這是一種多發於非洲、亞洲或拉丁美洲人口的疾病。它會導致各種嚴重的健康問題,包括心臟和腎臟的損傷。患有這種病的人也常常帶有特定的面部特徵,這些特徵可以通過電腦使用人臉識別系統加以識別,從而幫助醫生診斷出需要幫助的病人。

這些場景說明了一些重要和具體的方法,以便使人臉識別可以用於造福社會。這是21世紀的新工具。

“人臉識別”,我們還能承受多少風險?

各種可以用於監控的電子設備。

然而,和許多其他工具一樣,它也可以變成危險的武器。人臉識別很容易與更廣泛社會問題交織在一起,並提出了一個至關重要的問題:我們希望這種形式的人工智能在我們的社會中發揮什麼作用?

2018年夏,弗吉尼亞州一位自稱“自由軟件修補者”的人在推特上發佈了一系列關於微軟與美國移民與海關執法局(ICE),簽訂合同的消息,這些消息源於當年1月微軟在公司官方營銷博客上發佈的一篇文章。坦率地說,公司裡的每個人都已經忘記了那篇博文。不過,那篇文章表示,微軟向ICE提供的技術已經通過了極高的安全門檻,將被ICE部署。文章還表示,微軟公司對於能夠支持該部門的工作而深感自豪,並且還有一句話提到了ICE使用人臉識別技術的潛力。

2018年6月,特朗普政府決定在美國南部墨西哥邊境把非法入境者的孩子與家人分開,這迅速成為一個爆炸性問題。公司幾個月前發表的一份營銷稿現在看來已大不相同,而人臉識別技術的用途看起來也完全不同。人們擔心ICE和其他移民機關可能會把像人臉識別這樣的技術應用到工作中。這是否意味著,當移民在城市街道上行走時,連接到雲端的攝像機可以用來識別他們的身份?這是否意味著,鑑於這項技術的現狀,以及它可能產生偏差的風險,它可能會錯誤辨識某個人並導致其被錯誤拘留?這只是許多問題中的兩個。

按照慣例,我們首先要弄清楚公司與ICE的合同到底包括了什麼。

經過深入調查,我們發現這份合同根本沒有被用在人臉識別上。謝天謝地,微軟也沒有參與任何在邊境線上將孩子與其家人分開的項目。相反,這份合同其實是幫助ICE將其電子郵件、日曆、消息和文檔管理工作轉移到雲端。這與我們在美國和世界各地與客戶(包括其他政府機構)合作的項目類似。

儘管如此,這件事仍然產生了一個新的爭議。

3

責任底線

有些人正在極力鼓吹科技公司應該採取主動行動,對於我們反對的政府政策,終止為政府機構提供所有服務。科技現已成為我們生活中一個關鍵的基礎設施,如果不能及時更新技術——或者更糟的是,簡單做出終止技術服務的決定——可能帶來各種意想不到的後果。正如薩提亞在我們的內部談話中多次指出的那樣,政府正在以電子郵件為工具幫助非法移民家庭團聚。如果我們把郵件系統關掉,誰知道會發生什麼。

這讓我們得出結論,抵制美國政府機構是錯誤的做法。但主張採取這種行動的人,包括我們自己的一些員工,提出了一些正確的問題。例如,人臉識別技術帶來的挑戰需要受到更多關注。

經過深思熟慮,我們得出結論,這項新技術應該受到新的法律法規約束。這是保護公眾隱私需求,化解偏見和歧視風險,同時使創新得以繼續的唯一途徑。

這一點凸顯了在公共安全與人權由來已久的矛盾之間的艱難權衡。它還表明了許多有關人工智能的新型倫理道德決定的主觀性質。當然,我們同樣擔心,正如那位團隊領導和其他人所指出的那樣,如果我們拒絕提供這項服務,可能會有其他公司乘虛而入。在這種情況下,我們不僅會丟掉生意,還不得不在其他人幫助將技術用於我們所反對的有害目的時只能袖手旁觀。不過,我們權衡了所有這些因素,最終得出結論,我們需要嘗試給這種新技術的發展奠定某種類型的道德基礎。這樣做的唯一辦法就是拒絕將其用於某些用途,並推動更廣泛的公眾討論。

這種原則性的方法在加州本地的一個警察部門聯繫我們時經受了考驗,他們表示,他們想為自己的所有車載和手持攝像機配備一種能力,使其可以拍攝被攔下的人的照片,甚至包括例行檢查時被攔下的人,並查看他們是否與其他罪行的嫌疑人數據庫相匹配。我們理解他們的邏輯,但向他們建議,由於人臉識別技術仍然不成熟,因而無法在這種情況下部署。至少在2018年,如此使用這一技術將導致過多的錯誤匹配,並針對被錯誤識別的人發出警報,特別是如果他們是有色人群或女性,因為針對這兩類人群的錯誤率仍然較高。我們拒絕了這項交易,並說服了警察部門放棄將人臉識別用於這一目的。

這些經驗提供了一些啟發,幫助我們思考可以應用於人臉識別的原則。但我們擔心,如果我們走上這條倫理大道,但被那些根本沒有實施任何防範或限制措施的公司削弱,無論這些公司是在西雅圖的另一側,還是在太平洋的另一側,則我們的做法都不會產生什麼實際影響。與許多基於人工智能的技術一樣,人臉識別也會隨著大量的數據積累而改進。這就使公司擁有動力盡可能多地進行早期交易,從而導致商業競爭的風險,而科技公司將被迫在社會責任和市場成功之間做出選擇。

“人臉識別”,我們還能承受多少風險?

英國Channel 4與美國NetFlix公司出品的《黑鏡·第三季》(2016)構想了一個計算、排位個人評分的世界。

防止這種惡性競爭的唯一辦法是確立一個支持健康市場競爭的責任底線,而一個堅實的底線基礎要求我們確保這項技術以及開發和使用它的組織受到法治的約束。

我們從以往針對其他技術所實施的監管中汲取了經驗。在許多市場中,兼顧各方利益的平衡監管方式為消費者和生產者雙方創造了更健康的動態關係。在20世紀,汽車工業曾花了幾十年的時間來抵制監管要求,但今天,人們廣泛認識到,法律在確保強制安裝安全帶和氣囊,以及更高的燃油效率方面發揮了重要作用。同樣的情況也適用於航空安全以及食品和藥品管理。

當然,談論監管的必要性是一回事,而界定什麼樣的監管最為合理則是另一回事。2018年7月,我們公佈了一個我們認為需要考慮的問題清單,並就可能的答案徵求人們的意見。討論首先在員工和技術專家中展開,但很快擴展到全國和世界各地,包括美國公民自由聯盟這樣積極參與這個問題討論的公民自由組織。

我們不再像大多數科技公司那樣,堅守抵制政府幹預的傳統。我們以前進行過那樣的抗爭。相反,我們已經認可並支持我們心目中更積極但更平衡的監管方式。這也是我們早在2005年就呼籲美國聯邦隱私保護立法的原因之一。我們認為,無論是對科技行業還是對社會,這種做法從普遍意義上來說都比完全依賴科技行業自行解決一切問題的做法要好得多。

4

行動之前:我們能做什麼?

在更迅速地開始行動之餘,深思熟慮並確保邁出正確的前幾步也很重要。在這一點上,我們相信我們擁有一系列想法來應對人臉識別技術。我在華盛頓特區的布魯金斯學會宣佈了我們對新立法的主張,並公開發表了我們提案的更多細節。然後,我們開始巡迴推廣這一主張,在接下來的6個月裡,我們在美國和世界其他8個國家的公共活動和立法聽證會上對它進行了推介。

“人臉識別”,我們還能承受多少風險?

《解除好友2:暗網》(2018)劇照。

我們認為,立法可以解決三個關鍵問題,即偏見風險、隱私和對民主自由的保護。我們相信,一個運作良好的市場有助於更快地減少偏見。我們遇到的客戶都沒有興趣購買錯誤率高,並導致歧視的人臉識別服務。但如果客戶缺乏信息,市場就無法正常運轉。

為了幫助減少歧視風險,我們認為新的法律還應該要求,部署了人臉識別的組織首先應培訓員工審查結果,然後再做出關鍵決策,而不是簡單地把決策權交給電腦。除此以外,我們擔心,如果一個組織在部署人臉識別時並未按照該技術設計時預期的方式,發生偏差的風險可能會加劇。訓練有素的人員則有助於解決這個問題。

在某種程度上,一個更棘手的問題是,什麼時候應該允許執法部門使用人臉識別技術針對特定個人進行持續的監視。

民主始終取決於人們相互見面和交談,並在私下和公開場合討論自己觀點的能力。這有賴於人們能夠在沒有政府持續監控的情況下自由行動。

人臉識別技術的許多政府用途是用於保護公共安全和促進更好的公眾服務,並不會引起上述擔心。但是,如果將無處不在的攝像頭、巨大的計算能力和雲端存儲結合起來,政府可以使用人臉識別技術來持續監視特定的人。它可以在任何時候做到這一點,甚至可以持續這樣做。而以這種方式使用這項技術則可能會導致規模空前的大規模監視。

因此我們認為,法律只有在下列情況下才可以允許執法機構使用人臉識別來對特定的人進行持續監視,即執法機構已經獲得了法庭命令(如對這種監視的搜查令),或是在緊急情況下,如人類生命面臨迫在眉睫的危險。這將為人臉識別服務創建規則,這些規則與美國目前通過手機生成的GPS位置跟蹤個人的規則類似。正如美國最高法院在2018年做出的裁決,如果沒有搜查令,警方將不能要求顯示手機地點的手機記錄,因此無法獲得某人的實際行動軌跡。正如我們所說:“我們的面孔是否應該得到和手機同等的保護?在我們看來,答案當然是響亮的‘是’。”

“人臉識別”,我們還能承受多少風險?

新京報漫畫/陳冬

最後,顯而易見的是,人臉識別的監管也應該保護商業環境下的消費者隱私。我們正迅速進入一個時代,在這個時代,每家商店都可以安裝攝像頭,通過實時人臉識別服務連接到雲端。從你走進購物中心的那一刻起,無論你走到哪裡,都有可能不僅被拍照,而且被電腦識別。購物中心的老闆可以把這些信息分享給每一家商店。有了這些數據,店主可以瞭解你上次進店的時間以及你看了什麼或買了什麼,通過與其他商店共享這些數據,他們可以預測你下一步打算買什麼。

我們的觀點並不是說新的法律應該禁止所有這些技術。相反,我們是致力於幫助商店負責任地使用新技術改善購物體驗的公司之一。我們相信許多消費者會歡迎由此帶來的客戶服務。但我們同樣認為,人們有權知道什麼時候使用了人臉識別,提出問題,並有真正的選擇。

我們建議,新的法律應要求使用人臉識別的組織發佈“醒目的通知”,以方便人們知曉這項服務。我們還呼籲制定新的法規,以決定人們在這種情況下可在何時以及以何種方式進行有意義的控制和同意。後一個問題顯然需要在未來幾年中開展更多的工作,從而確定適當的法律方法,特別是在隱私法律不如歐洲健全的美國。

“人臉識別”,我們還能承受多少風險?

創意圖片/新京報記者 王遠征

另一個有幫助的點是考慮新法律的適用範圍。在某些方面,我們並不需要鼓勵普天之下都通過立法。例如,如果一個重要的州或國家要求公司為公眾和學術測試提供人臉識別服務,那麼這個決策將會被公佈並廣泛散播,從而起到引領作用。基於這一信念,我們鼓勵美國各州的立法者在2019年初在全國各地準備召開會議時都分別考慮新的立法。

但在消費者隱私保護和對民主自由的保護方面,所有司法管轄區都需要新的法律。我們認識到,鑑於世界各國政府的不同觀點,這一點可能並不現實。因此,僅僅呼籲政府採取行動是遠遠不夠的。就算美國政府行動起來了,外面還有一個更大的世界。人們永遠無法相信世界各國政府都會以符合人權保護的方式使用這項技術。

政府主導的需要並不能免除科技公司自身的道德責任。人臉識別技術的發展和使用應該與普遍秉持的社會價值觀相一致。我們公佈了與我們的立法建議相呼應的六大準則,並將其應用到我們的人臉識別技術中,我們還創建了實施這些原則的系統和工具。其他科技公司和倡導團體也開始採取類似的做法。

人臉識別問題讓我們得以瞥見人工智能的其他倫理道德挑戰有可能發生怎樣的演變。正如我們所做的那樣,我們可以先制定廣泛適用的原則,隨後在人工智能技術的具體應用和特定場景中對這些原則進行測試。這種方法也適用於具有潛在爭議的人工智能應用更可能出現之時。

更多的問題一定會出現。並且與人臉識別一樣,在遇到每個問題時,都需要針對該項技術可能應用的方式分別開展大量細緻的工作。要解決許多這樣的問題,最終將需要新的監管政策與科技公司主動的自我監管相結合。在面對許多這樣的問題時,不同國家和文化也會存在不同的觀點。我們需要發展一種更強的能力,使各國能夠更迅速、更協作地採取行動,在經常性的基礎上應對這些問題。這是我們能夠確保機器將永遠由人控制的必由之路。


本文經出版方授權整合自《工具,還是武器》。整合:李永博;編輯:西西。校對:陳荻雁。歡迎轉發至朋友圈。


分享到:


相關文章: