Selfish Ledger,令人擔憂的谷歌版“新黑鏡”

Selfish Ledger,令人担忧的谷歌版“新黑镜”

谷歌最近並不太平。

最近,谷歌兩年前製作的一個僅供內部傳發的視頻被曝光,視頻中提出了“Ledger”概念,Ledger收集用戶所有數據,然後根據用戶的行為、習慣等信息,引導用戶完成一個目標。視頻一曝光,引發輿論譁然的同時也讓許多人再次陷入對於信息安全的深深擔憂之中。

這部名為《The SelfishLedger》的短片,由谷歌 X 實驗室設計負責人、Near Future Labortatory 聯合創立人 Nick Foster 親自操刀製作。在長達9分鐘的視頻中,Foster 定義了“Ledger(數據賬本)”,並假設這些數據檔案可以被建立,也可被用於修改行為以及進行用戶之間的相互轉移。

Selfish Ledger,令人担忧的谷歌版“新黑镜”

谷歌提出“全系統設置”概念

基於Ledger的概念,視頻中谷歌提出了概念性的解決方案(conceptualResolutions by Google system)——提示用戶選擇一個生活的目標,在此後每次用戶與手機的互動中,手機均會引導用戶去實現這一目標。

谷歌認為其可以實現一個“有組織的價值觀”,其包括用戶在叫Uber出行時會建議用戶使用拼車以及更加環保的出行方式,或者是引導用戶從Safeway購買一些本地產品。

Selfish Ledger,令人担忧的谷歌版“新黑镜”

谷歌解決方案引導用戶購買商品

實現這一切的前提,就是實現Ledger對更多數據的貪婪。它通過訪問大量的用戶數據和決策,對數據進行蒐集和學習,進而提出建議。在未來,“以目標為導向的Ledger概念將變得更加可行,提出的建議可能不會由用戶轉化得出,而是由Ledger本身作出的”。

令人擔憂的谷歌版“新黑鏡”

一旦Ledger本身能夠自主作出決斷,這就讓人細思極恐了。

Foster設想了一個未來:“目標驅動的Ledger概念變得容易被接受,並且行動建議可能不是由用戶而是由Ledger本身提供的”,這就是《黑鏡》描述的景象。而Ledger積極地尋求填補數據的空白,甚至選擇購買它認為可以吸引用戶的產品,以便採集數據。

隨後,視頻中舉了一個浴室體重秤的例子。一開始,Ledger 並不知道用戶的體重。隨後,視頻畫風開始趨向科幻情景,設想 Ledger 可能會變得十分精明,能夠依靠3D打印技術打印自己的設計:“歡迎回家,Dave,我給你打印了一個體重秤。”

Selfish Ledger,令人担忧的谷歌版“新黑镜”

基於Foster對Ledger的構想,其如若照進現實,智能相對論(aixdlun)分析師柯鳴認為,這仍然存在著幾個不容忽視的問題。

1. 恐成控制大眾的反烏托邦視野

Foster對Ledger的構想並不僅僅是一個自我提升的工具。這個系統還能夠“填補知識空白”、“改進人類的行為模型”,這不僅僅包括你我的特定行為,更包含著整個人類的群體行為。雖然視頻指出試圖通過使用思想控制技術來解決貧困和全球變暖等問題,但視頻認真討論在全球範圍內大規模行為改變的事實是令人恐懼的。

工智能之父馬文·明斯基認為“大腦不過是肉做的機器”,而人類思維是一個複雜的過程。比如“為什麼人類下雨不想被淋溼,卻願意在衛生間沐浴”這種3歲小孩都知道的問題,計算機就會感到費解。

對於用戶而言,Ledger的預期設計讓大家感到隱憂。一位X的發言人說明道:這是多年前設計團隊的一個思想實驗,他們使用一種被稱為“推測設計(speculative design)”的技術來探索讓人不舒服的想法和概念,從而引發討論和辯論。它與任何當前或未來的產品無關。

但其實,早在2015年穀歌所提交的專利申請中,就有存在“檢測和糾正用戶行為中的潛在錯誤”的提法,這與Ledger的功能十分相似。當其真正普及於人類生活之中,其依然是讓人恐慌的。

2.信息倫理問題再上風口浪尖

“想要得到多少便利,在於你願意放棄多少信息隱私”,這好像已經成為諸多谷歌類公司的永恆二分法。信息倫理隨著Ledger以及亞馬遜Alexa再爆將私人對話發給同事的事故時,其再次成為人們關注的熱點。

而此種事件,早已不是個例。早前Facebook被指控利用個人信息系統,預測和影響選民的政治傾向,扎克爾伯格對此承諾將進行嚴厲整改,並表示將專門成立人工智能倫理團隊來保障信息安全問題。

其實在大衛·惠特克事件中,谷歌早就存在著信息洩露的問題。谷歌主宰著用戶的信息獲取,而依靠這種壟斷性的力量,谷歌在早年的時候也用競價排名的方式來推廣一些不良、虛假信息。2009年便發生了美國政府假裝在谷歌上販賣假藥並得以推廣的醜聞事件。

此後的“稜鏡門”事件,以及通過人為操作搜索詞,干涉美國大選等問題,依然是借用信息資源而進行的不良行為。

“不再作惡”的谷歌

不太平的事情還有一件。

近日谷歌在其最新的行為準則中,將“不作惡”的文本已經幾乎徹底刪除,雖然2015年穀歌重組並將Alphabet作為母公司時,該公司幾乎完全放棄了“不作惡”的口號,改為了“做正確的事”。

Selfish Ledger,令人担忧的谷歌版“新黑镜”

修改後的谷歌準則

同時,谷歌已有十幾名員工正式請辭,以抗議公司繼續參與軍方的Maven項目。此外,學術界有364名人工智能專業人士也聯名上書,反對谷歌。為表示抗議,先是有近4000名谷歌員工聯署請願書,之後約12名谷歌員工向公司辭職。

這些辭職的員工對將人工智能運用在無人機作戰感到擔憂,同時也擔心谷歌的政治決策,這些都可能導致用戶對谷歌的信任被削弱。雖然谷歌強調,它的人工智能技術不會被用來殺戮,但也承認把人工智能運用在五角大樓的無人機項目中,會為技術工作者和研究人員帶來倫理和道德問題。

拋開谷歌本身而言,人工智能從通用AI(General AI)發展到“心智社會”後,智能相對論(aixdlun)分析師柯鳴認為其依然有著許多“恐怖之處”。

1.對社會優先問題錯位的恐懼

目前,機器人已經取代了部分體力勞動。用不了多久,它們便可勝任一度被認為只有人類才能完成的認知工作。自動駕駛汽車將取代出租車司機;自動駕駛飛機將取代飛行員。

也許有朝一日,所有人類工作都將被機器取代。我們所有的工作也可能被許多速度更快、不知疲倦的機器代替,由它們來生產更多更迅速的內容產品。

在現代社會中,自動化導致許多人失業。機器所有者變得愈發富有,其他人則愈發貧窮。這並不是科學問題,而是政治和社會經濟問題。

誠然,若依靠AI做惡是有違科學家的初衷的,畢竟技術知識手段和工具,其真正的好壞在於使用它的人。在技術和人類面前,人類本身的安全性、穩定性是第一位的,機器優先、智能優先的社會錯位只會加深人們的不安定感和恐懼感。

2.對濫用的恐懼

從 1920 年的戲劇《R.U.R.》中憤怒的機器人到《2001:太空漫遊》中的殺人計算機 HAL9000,人工智能的發展總是伴隨著暗黑的神話。人工智能對人類很多好處。其中一些已經實現,比如搜索引擎和機器翻譯;另一些則即將實現,比如自動駕駛汽車。但是,隨著人工智能能力的增長,使用的便捷性更容易促進濫用的產生,而AI的濫用無疑是讓人恐懼的。

近日一份由25名技術人員與公共政策研究員共同發佈的報告指出,隨著人工智能的發展,被惡意利用的風險也呈上升趨勢。報告中還稱,一旦人工智能遭到了黑客攻擊,將增加諸如無人駕駛車禍,商業無人機變成針對性武器的可能性。

誠然,惡意使用人工智能會對數字、物理和政治安全造成迫在眉睫的威脅,因為它可能被利用來實施大規模的、極具針對性的高效攻擊。 而在去年底,一個色情視頻流傳到網上,一些名人的面孔經過智能摳圖,被嫁接到了不同身體上,甚至有些影片可以以假亂真,因此導致了很多明星名譽受損。

如今人工智能的發展可謂是突飛猛進,很多曾經看似不可能實現的事情,現在已經變成了可能。然而服務於人類的人工智能如果被不法分子運用,那將會帶來災難性的後果。

總結

從爆出《TheSelfish Ledger》短片到刪除“不作惡”的準則,谷歌的人工智能領域確為多事之秋。但是,不可否認的是,技術的進步與革新帶來的是整個行業的發展。《The Selfish Ledger》是否會成為谷歌版的“新黑鏡”,這還需要時間和市場來檢驗,而谷歌本身的發展,依然需要辯證的來看待。


分享到:


相關文章: