面部識別、深度偽造、隱私和自動化定義的AI 2019

  回顧剛剛過去的2019年,基於機器學習系統訓練算法的人工智能,已然開始滲透至各行各業。

  AI週刊在對2019年的人工智能行業進行總結是歸納了以下四個關鍵詞:面部識別、深度偽裝、隱私和自動化。與此同時,AI週刊也對2020年的人工智能行業大發展進行了展望。

  面部識別

  在2019年的新聞報道中,我們可以發現,面部識別技術比其它任何人工智能應用更受矚目。

  2019年1月份,麻省理工學院的一個科學家團隊聲稱:亞馬遜公司的面部識別和分析軟件reko在某些種族中的性別識別準確性低於其他面部識別解決方案。具體來看,reko未能在特定場景中確定女性和深色皮膚的面孔的性別,從而錯誤地將女性的照片分別識別為男性和深色皮膚的女性分別為19%和31%。

  撇開亞馬遜的面部識別爭議不談,這項研究很有先見之明地指出了人工智能的種族偏見問題上週美國國家標準與技術研究所(NIST)發表的一項研究發現:在進行一種被稱為“一對一”匹配的特定類型的數據庫搜索時,不少面部識別系統錯誤地識別了非裔美國人和亞洲人的面孔,相較於白人,亞裔和非裔的人臉識別錯誤率要高10到100倍。

  而除了偏見問題之外,人臉識別技術的可擴展性也使得該項技術正在濫用。今年,紐約警察局通過面部識別系統錯誤將演員伍迪·哈里森識別為嫌疑人;中國通過,面部識別系統用來進行反恐等活動來保障國家公共安全;初創公司AnyVision旗下的面部識別產品也因被用來監視居住在約旦河西岸的巴勒斯坦人而備受關注。

  越來越多的活動人士、學者和立法者呼籲限制或徹底禁止面部識別技術。2019年5月,舊金山禁止警察或市政部門使用面部識別技術;奧克蘭在6月也緊隨其後,之後伯克利通過了關於面部識別技術的禁令。2019年秋天,美國加州頒佈了一項為期三年的禁令:禁止在執法隨身相機中使用面部識別技術;以及2018年在美國眾議院監督和改革委員會的兩次聽證會上,美國國會一些最著名的共和黨人和民主黨人共同提出了關於面部識別的立法改革建議, 2019年商業面部識別隱私法案的出臺,要求企業在使用面部識別軟件之前必須獲得公眾許可。

  鑑於面部識別在美國國會、學術界、州議會和國會山等公共論壇上引發的激烈爭論,可以說面部識別過去是,將來也將是一個熱點話題。

  深度偽造(自我審查和深度造假)

  2019年2月,OpenA打破了學術規範,決定不公開用於訓練其最先進的自然語言處理模型GPT-2的語料庫,也不公開與之相關的訓練代碼。OpenAI在一篇證明其決定合理性的博客文章中表示,它擔心這些信息可能被用來生成有關特定公司的合成新聞,比如種族主義或性別歧視的文章,以及亞馬遜(Amazon)或Yelp等網站上的虛假評論。

面部識別、深度偽造、隱私和自動化定義的AI 2019

  OpenAI隨後發佈了幾個更小、更簡單的GPT-2版本,並研究了它們的接收情況以及它們訓練時使用的數據集。在得出“沒有強有力的證據”證明存在誤用之後,谷歌於上月發佈了完整的模型——該模型對從網上搜集的800萬份文本文件進行了訓練。

  OpenAI此項決定的批評者認為,該公司誇大了他們的工作將帶來的危險,並在不經意間激起了人們對人工智能和機器學習的激烈討論。除此之外,他們認為OpenAI剝奪了研究人員獲得突破性人工智能技術的機會,從而使他們處於不利地位,而且它有效地阻止了研究人員識別GPT-2中的錯誤或提出潛在的對策。

  儘管批評者的表述不無道理,但OpenAI的擔憂並非完全沒有根據。在2019年,利用人工智能將現有圖像、音頻記錄或視頻中的人物替換成其他人的肖像的深度贗品或媒體數量迅速增加。Deeptrace在6月和7月發現了14,698個網絡上的深度造假視頻,比去年12月增加了84%。這組數據讓人感到不安,不僅因為深度造假贗品可能被用來在選舉期間左右公眾輿論,或將某人捲入他們沒有犯下的罪行當中,還因為它們已經被用來製作色情材料,並騙取公司數億美元。

  包括Facebook、微軟和亞馬遜在內的科技巨頭已與麻省理工學院和康奈爾大學在內的學術合作伙伴合作,幫助抵抗由人工智能引發的誤導性媒體的傳播,但OpenAI不願發佈自己的模型,預示著這種深度抵抗也面臨著不小的挑戰。實際上,益百利預測,到2020年,網絡罪犯將利用人工智能技術擾亂商業企業的運營,並在各國之間製造地緣政治混亂。

  隱私

  儘管深度學習和人工智能給人們帶來了惠利,但它們還存在一個主要的隱私問題。

  皇家自由倫敦NHS基金會是英國國家醫療服務中心的一個分支機構,在未經患者的同意下,皇家自由倫敦NHS基金會向谷歌旗下的DeepMind提供了160萬名患者的數據。谷歌(其與阿森松島的健康數據共享夥伴關係在11月成為審查的對象)放棄了發佈胸部x光掃描的計劃,因為擔心其中包含個人身份信息;在2019年的夏天,微軟悄悄刪除了其最大的公開人臉識別數據庫MSCeleb,該數據庫擁有超過1000萬張圖像,將近10萬人的面部信息。而伴隨著微軟刪除了 MS-Celeb-1M 數據庫,另外兩個學術單位也刪除了它們旗下的類似相關數據庫,包括由杜克大學研究人員建造的 Duke MTMC 監控數據庫和斯坦福大學的 Brainwash 數據庫;而ImageNet,一個常用來訓練計算機視覺算法的開源庫,被發現在某些時候包含從Google,Flickr和其他地方刮取的親密行為的描述。

面部識別、深度偽造、隱私和自動化定義的AI 2019

  此外,包括蘋果和谷歌在內的科技巨頭也先後被媒體披露,為了改進Siri和谷歌Assistant等助手功能而收集的錄音可能被濫用。今年4月,彭博社披露,亞馬遜僱傭合同工,為裝有alexa的設備上數千小時的音頻進行人工註釋,這促使該公司推出面向用戶的工具,快速刪除雲存儲數據。

  而以上事件的發生都是不合理、有問題的存在。因為在越來越多的情況下,隱私不僅僅是一個哲學問題,並且包含可商業中的利害關係。在這種背景下,州、地方和聯邦先後頒佈各級法律,旨在使隱私成為合規管理的強制性部分。目前,美國50個州、地區和哥倫比亞特區正在或已經通過了數百項涉及隱私、網絡安全和數據洩露的法案。可以說,其中最全面的是大約兩年前簽署的《加州消費者隱私法》(California Consumer Privacy Act)。這還不包括健康保險可攜性和責任法案(HIPAA),該法案要求公司在披露個人健康信息之前必須獲得授權。

  而為了保障公民的隱私問題,谷歌以及其他公司也先後發佈了TensorFlow Privacy和PySyft等用於機器學習框架(包括TensorFlow和PyTorch)的庫,這些庫使用差別隱私等技術來提供強大的隱私保障。與此同時,他們還採用了包括聯邦學習在內的技術,通過分散的設備或服務器(即人工智能)來訓練人工智能。如,同態加密是一種密碼學的形式,它支持對使用算法(也稱為密文)加密的明文(文件內容)進行計算。在完全管理的服務方面,像亞馬遜這樣的科技巨頭已經開始讓他們的產品符合HIPAA這樣的規定。

  自動化

  儘管人們對人工智能對其職位所帶來的擔憂可能被誇大了,但不可否認的是,因人工智能而出現的自動化正在降低行業對勞動力的需求。

  麥肯錫全球研究所2019年早些時候發佈的一份報告發現,在人工智能和機器學習帶來不利變化的職業中,女性將佔主導地位。到2030年,在佔GDP 60%以上的10個經濟體中,男性佔多數的工作崗位中,約有40%的工作崗位將被自動化取代。而在自動化潛力很大的以女性為主的工作崗位中,自動化取代率達到了52%。

  這個觀點與英國國家統計局在2019年3月發佈的一份報告相符,

  國家統計局預測,服務行業的員工——主要是服務員、零售庫存回收人員和初級銷售人員——以及農業、汽車和服務行業的員工將受到不同程度的影響。勞工部預測,在2017年佔高風險工作70.2%的女性將承受即將到來的勞動力市場變化的衝擊。

  這些觀點與英國國家統計局(ONS) 2019年3月的一份報告相一致,英國10%的勞動力(約150萬工人)從事著 “高風險”的自動化工作。英國國家統計局預測,服務行業的員工——主要是服務員、零售庫存回收人員和初級銷售人員以及農業、汽車和服務行業的員工將受到不同程度的影響,他們認為,在2017年佔高風險工作70.2%的女性將承受即將到來的勞動力市場變化的衝擊。

  不管人們從事新的工作還是在目前的領域獲得新的技能,預計到2030年,數千萬工人將不得不進行某種形式的職業轉型。Forrester發現,自動化可能會在未來幾個月裡代替10%的美國工作崗位。世界經濟論壇、普華永道、麥肯錫全球研究院和高德納都曾預測,到2025年,人工智能可能會代替多達7500萬個工作崗位。

  人工智能行業的未來

  人工智能發展面臨著艱鉅的挑戰:在很大程度上,面部識別依舊是機器學習的一種有效的且不受到監管的應用,且這種應用正在不斷加劇;深度偽裝給科技公司、學術機構以及普通公眾帶來了沉重的壓力;人工智能中隱私問題的最終解決方案是難以捉摸的;不管工人們是否重新調整工作,自動化預計將影響數百萬人的生計。

面部識別、深度偽造、隱私和自動化定義的AI 2019

  2020年人工智能行業將迎來怎樣的變化,誰也無法給出答案。但對於人工智能帶來的所有問題,都在不斷髮生變化。2019年,人工智能在蛋白質摺疊方面達到了最先進的水平,這可能為新的療法和藥物鋪平道路;機器學習的各種實現被用來應對全球氣候變化;人工智能允許有語言和聽力障礙的人使用以前無法使用的產品……

  人工智能是一把雙刃劍,與任何技術的發展一樣,人工智能要發展,總得犧牲某些利益為代價。

(本文編譯自外網,內容尚有增減)


分享到:


相關文章: