03.22 Keras作者François Chollet:Facebook的算法要“吃人”

編者按:近日,Facebook洩露用戶隱私一案持續發酵,而就在今天凌晨,谷歌深度學習專家、Keras作者François Chollet發表了一系列推文,詳細闡述了他對這個事件的看法。

以下是論智對原文的編譯:

Keras作者François Chollet:Facebook的算法要“吃人”

對於用NewsFeed來影響用戶的情緒和意見、預測用戶未來決定(如分手或表白)這檔子事,Facebook已經幹了很久了,這還是一系列非常“成功”的實驗。如果現在人工智能只有一個風險值得人們擔心,那就是它能極其高效地、廣泛地控制人口。而Facebook一直在試圖成為AI的領導者,請看看他如今的影響範圍,這才是真正可怕的事情。

作為AI研究領域的一員,如果你需要以各種形式融入進Facebook構建的生態環境中,試想一下,你能幹什麼?你這是在餵養一隻最後可能會“吃人”的怪物。不好意思,也許這個表述太戲劇化,但就我們現在面臨的威脅而言,這個詞毫不誇張。

Facebook的問題不僅僅在於洩露用戶個人隱私,並把數據悉數送進極權主義的圓形監獄裡。就我個人的觀點而言,其中更令人擔憂的是他把數據信息消費作為心理控制媒介。時代在變化,未來我們的世界將在很大程度上被兩個趨勢長期左右:一個是我們都在失去自己的生活,工作也好,家庭也好,我們把消費和獲取信息都寄託給了網絡;另一個是AI,它正變得越來越聰明。

這兩種趨勢在算法層面重疊,繼而一起影響人們的數字內容消費。社交媒體的算法是不透明的,我們瀏覽的內容、我們聯繫的好友、我們閱讀的觀點、我們收到的反饋……這些事都正在被算法逐步掌控。這麼多年來,我們一直暴露在互聯網環境中,現在算法已經綜合多年的消費信息掌握了相當大的權利,無論是對於我們的生活,還是對於我們人格的塑造。而隨著人們把生活重心遷移到數字領域,在這裡,我們又將受到數字領域的的統治者——AI算法的深刻影響。

多年來,如果我們閱讀的新聞(無論是真是假)是Facebook安排的的,看到的政治權利迭代是Facebook決定的,連自己的受眾都是Facebook分配的,那麼Facebook實際上是在控制我們的政治信仰和世界觀。可能你還不知道,Facebook很早就開始進行通過調整新聞推送、預測用戶決定來控制和影響不知情用戶的實驗,就現在已知的數據而言,這系列實驗至少有2013起。

簡而言之,Facebook可以即時考評我們的一切,並控制我們所消費的內容。當你用算法實現了感知和行動,你關注的還只是一個人工智能問題;但如果你開始用算法為人類行為建立一整套優化體系,那這就成了一個強化學習循環。

這是一個循環——你可以在裡面觀察目標當前的狀態,並不斷調整輸入的信息,直到你從目標身上看到你期望的想法和行為。

當前人工智能研究領域一個很有前途的方向(尤其是Facebook重點關注的方向)是開發算法來儘可能有效地解決這些優化問題:如何關閉循環,如何實現對目標智能體的完全掌控。在數據洩露這件事裡,我們是那些小白鼠。

這也更清晰地揭示了一個現實,就是人類的思想是高度脆弱的,它能被社會輕易操縱。在思考這些問題時,我列了一份簡短的心理攻擊模式清單,其中有一些已經被長期用於互聯網廣告推送,例如心理學意義上的社會正強化和負強化。它們在形式上是虛無的,甚至沒有固定目標,但在效果上幾乎百試百靈。從信息安全的角度看,我們可以把它們看作是“安全漏洞”,可以接管整個計算機系統的已知漏洞。

如果我們還保有人類的心智,那麼這些漏洞就永遠不會被修補,因為它們是我們的存在方式、是我們的DNA、是我們的心理學。在個人層面上,每個人都沒有實際的方法來保護自己。這是一個靜態的、脆弱的系統,但它將遭受智能AI算法越來越頻繁的攻擊。算法會完整地觀察我們的所作所為、我們的信仰,然後把我們消費的內容掌握在自己手中。

更重要的是,大規模的人口控制——特別是政治控制——所用到的AI算法一點都不先進,它的智能水平只夠管理我們的日常飲食信息。它沒有自我意識,沒有超級智能,但它的確成了一個可怕的威脅。

那麼既然大規模的人口控制是可能的,或者說在理論上是可行的,世界怎麼還沒毀滅呢?簡而言之,我認為這是因為我們的AI研究水平真的很低。但這個局面是會發生變化的,我們並不是沒有繼續上升的空間,而只是卡在了技術瓶頸上。

直到2015年,整個行業的所有廣告定位算法都還只限於邏輯迴歸,事實上,這種情形到今天也沒發生多大變化——只有極小數巨頭開始轉向更先進的模式。這也是我們常在網上看到許多和自己毫不相關的廣告的原因。算法還不成熟。同樣的,那些被敵對國家用來引導公眾輿論的社交機器人也不是AI。現在這些技術都很原始,但也只是現在。

近年來AI技術取得了飛速進展,而這些技術正在開始被部署進算法和社交機器人中。直到2016年左右,公眾才在新聞和廣告上得知深度學習的概念,但Facebook已經在IT上投入了大量資金。所以誰知道接下來會發生什麼呢?Facebook的錢已經砸進去了,他的目標也很明確:成為AI領域的領導者。這又代表著什麼呢?當NewsFeed再次給我們推送新聞,Facebook你告訴我,你用的是哪門子的RL/AI算法。

我們正在尋找一個強大的實體,以建立包含20億人的精細心理畫像信息,並在上面運行大規模的行為來操縱實驗,旨在開發世界上最頂尖的AI技術。

就我個人而言,這樣的描述讓我感到害怕。

如果你在AI領域工作,請不要幫助他們。不要玩他們的遊戲,不要參與他們的研究生態系統。請顯示出一些人類的良心。

小結

作為一名人工智能領域的從業人員,François Chollet對技術被濫用感到痛心是可以理解的,他對Facebook的批判也針針見血,發人深省。但通篇文章讀下來,這位對ML/DL做出過巨大貢獻的專家這次會不會有些太激動了。

“如果你在AI領域工作,請不要幫助他們。不要玩他們的遊戲,不要參與他們的研究生態系統。”我們很難相信這樣的話會出自一名深度學習專家之口。如果沒有公眾貢獻數據,許多研究將難以進展,而大多數AI技術是朝著服務人類的目標前進的。這樣的倡導是不是有些矯枉過正?

但換句話說,現在美國互聯網廣告市場佔有率第一的公司是谷歌。用國外網友的評論就是:Facebook is a weird way to spell “Google”(Facebook就是Google的一種怪異寫法)。如果Facebook劣跡般般,那谷歌真的會是業界白蓮花嗎?

Keras作者François Chollet:Facebook的算法要“吃人”


分享到:


相關文章: