谷歌:但使龍城飛將在 不教算法度陰山

雖然你還不清楚算法的工作原理,但是它已經在不分晝夜的為你服務。打開手機,淘寶用算法為你推薦商品、餓了麼用算法給你推薦外賣、滴滴用算法避開早晚高峰為你規劃最優路線;走出家門,停車場和街道的攝像機通過人臉算法幫助警察搜尋犯罪份子,晝夜保護城市安全;走進企業,人力資源部用算法篩選簡歷,尋找合適的員工、法務部門用算法幫助律師處理合同、投資部門用算法挑選股票或者虛擬貨幣……全世界都是如此。

雖然你毫無察覺,但是,算法(準確稱之為算法及其相關技術與應用,以下簡稱算法)正在重塑商業、政治、社會以及戰爭。

谷歌:但使龍城飛將在 不教算法度陰山

科技與戰爭的關係異常曖昧,但是我們需要清楚知道,算法什麼時候接管武器,接管戰爭?

谷歌:但使龍城飛將在 不教算法度陰山

2000 年至 2008 年間,科技互聯網技術迅猛發展,美國國防信息技術卻老態龍鍾。在克服了守舊主義與官僚主義之後,美國軍方內部終於達成高度共識,用高額的軍餉買出美國軍事科技的新高度,全面擁抱人工智能。

遠看是商品需求和供給的談判,近看是企業利潤與商業倫理的廝殺。

科技的前沿成了倫理的陣地。谷歌作為全球最大人工智能企業,學術理論先進、技術實踐領先、企業文化引領,已經先人一步走到了企業倫理的分叉路口。人工智能史上的鉅額訂單,打響了人工智能企業商業倫理的第一戰。

“永不作惡”是谷歌1999年提出的企業宗旨,並一直沿用。這一次在作惡與不作惡之間,谷歌上演了快意恩仇錄。

第一回:力盡關山未解圍

谷歌向美國國防部提供人工智能技術,如果商用科技與軍用需求合作成功,那麼這將是首次以人工智能算法為紐帶,將無人機在戰場上獲得的海量數據通過機器學習的方式進行分析與挖掘,轉化為有價值的行動情報和軍事洞察,開啟人工智能軍事應用的先河,是美國國防部人工智能技術應用於戰場的重要里程碑。一石激起千層浪,谷歌員工的開始擔憂,隨即引發了廣泛討論,事件在公司內部不斷髮酵,積重難返。終於,谷歌員工發表公開信反對參與美國國防部的人工智能項目,並收集到大量員工簽名。在一次公司會議上,員工就谷歌參與軍事提出面對面的質疑。當時,谷歌雲的一位高管極力為該合同辯護。顯然,解釋和辯護都沒有奏效。公司高管低估了員工對技術不能用於作惡的堅守,員工不想參與開發可用於軍事目的的人工智能項目。安撫和勸慰都無法解釋算法技術及相關應用將被用於戰爭的重大爭議性事實。嗅覺靈敏的外媒立刻盯上了此事,內部的幾次溝通的細節都被媒體大量曝光。簽名積累到4000多人,訴求清晰。谷歌不應捲入戰爭,谷歌及其供應鏈生態永應不發展戰爭科技。請求公司撤出美國國防部項目。

多家重量級媒體對谷歌咬住不放。

在與《紐約時報》的對話中,谷歌高管澄清:“這項技術可以拯救人的生命,並讓工作人員從大量的重複性勞動中解脫出來”。發言中存在著明顯的邏輯問題,既然技術可以拯救人的生命,怎麼不提技術可以要了人的性命。公眾、媒體和員工對例行的幾次溝通並不買賬,大家心裡都清楚,這時候,企業商業目標仍是谷歌高管的第一工作目標,利潤與商業倫理水火不容,難以平衡。執意相信技術帶來的正面價值的做法無法打動任何人。雖然也有媒體解釋,谷歌的人工智能技術在軍事項目中不是直接用於研發新式武器,但是輿論爭執的關鍵在於:算法沒有價值觀,結果受技術的掌握者控制。維基解密公開40多萬份有關伊拉克戰爭的美軍機密檔案,多於一半的死難者是手無寸鐵的平民。沒有什麼遮羞布能夠掩蓋戰爭本質。

第二回:林暗草驚風,將軍夜引弓

科技帝國猶如密不透風的鐵桶,需要有人裡應外合、暗渡陳倉。危機時刻,谷歌員工將勞動合同置之度外。

國際機器人武器控制委員會(ICRAC)創始人等三位業界學者發起第二封公開信。這家曾經令人尊敬的公司全球聲譽岌岌可危,公關事務雪上加霜。

谷歌:但使龍城飛將在 不教算法度陰山

公開信三位發起人包括Peter Asaro、Lucy Suchman、Lilly Irani。其中Lilly Irani為谷歌離職員工,Peter Asaro為國際機器人武器控制委員會(ICRAC)的創始人。

第二封公開信的訴求總結為:終止其與國防部的項目合同。承諾不發展軍事技術,也不允許收集到的個人數據用於軍事行動。保證不參與也不支持發展,製造,交易或使用自主武器; 並支持禁止自主武器的努力。

三位公開信的發佈者以勇氣和遠見,引導歷史事件的走向,成為反對大軍的重要領袖。

公開信第一作者露西薩琪曼(Lucy Suchman)。

谷歌:但使龍城飛將在 不教算法度陰山

公開信的第二作者,莉莉·伊拉尼(Lilly Irani)。

谷歌:但使龍城飛將在 不教算法度陰山

公開信的第三作者,彼得阿薩羅(Peter Asaro)。

谷歌:但使龍城飛將在 不教算法度陰山

博士在人工智能,機器學習和機器人視覺等領域進行創新研究。他多年以前便關注自主武器與科技倫理議題的發展。2009年,創立了國際機器人武器控制委員會(也是本次公開倡議的發起機構)。曾在美國國家超級計算機應用中心、貝克曼先進科學與技術研究中心工作,曾經參與知名計算機自然語言項目,該項目成果至今被蘋果手機的語音助手Siri和必應(Bing)所使用。既是技術專家,也是致命自主武器的法律和倫理領域頗有影響力的思想家。

就是在以上三位的發起和帶動下,九十餘名相關領域學者和科學家最先參與公開簽名後,有超過1100位支持者簽名,後期參與者來自的領域明顯跨越了多個學科,包括傳播學、公共管理、法律、社會科學、哲學、人類學等領域的學者,以及工程師、普通技術人員等。

(公開信簽名地址:https://www.icrac.net/open-letter-in-support-of-google-employees-and-tech-workers/)

谷歌:但使龍城飛將在 不教算法度陰山

谷歌:但使龍城飛將在 不教算法度陰山

第三回:不破樓蘭終不還

抗議沒有給谷歌喘息的機會,給第二封公開信打前站的是12名谷歌員工向公司集體請辭。離職員工訴求非常清晰,向軍方提供技術,已經觸犯了谷歌“不作惡”的公司理念。他們很清楚,人為什麼工作,要為什麼樣的企業工作。

谷歌:但使龍城飛將在 不教算法度陰山

事態出現了各路英雄合力圍剿之勢。角力進入了白熱化,最終,有人不顧一切的黑入了谷歌的內部郵件系統,截獲谷歌內部郵件。郵件顯示,即使重壓之下,谷歌仍然期望能從人工智能的軍事項目中獲得訂單,合同標的數字有望達到2.5 億美元。

谷歌:但使龍城飛將在 不教算法度陰山

最後一根稻草壓在了駱駝身上,谷歌首席執行官在全公司會議上表示,谷歌希望制定出“能夠經受住時間考驗”的指導原則,指導谷歌與國防和情報領域的合作。一些員工向媒體透露,預計在未來幾周,谷歌將對內宣佈這些原則。

紐約時報發來報道,谷歌將制定新的原則禁止人工智能應用到武器中,原則將如何在實踐中應用為人所期待。這也是人類歷史上,人工智能歷史上,第一個關於如何約束和禁止人工智能技術應用到商業的倫理指導性文件。

勝利的果實終於被摘下,當地時間6月1日,谷歌正式宣佈將不與美國國防部軍事項目續約。谷歌高管內部例會上向員工發佈該消息,現有合同為期18個月將在2019年3月到期,並承諾不再爭取續約。

谷歌開放研究小組的創始人,人工智能研究人員Meredith Whittaker在社交媒體上激動的盛讚:“我為谷歌的決定感到非常高興,並對所有為推動這一成功做出貢獻的人深表敬意,這是值得的冒險。”

永不作惡已經成為谷歌舊的行為準則的一部分,它曾經這樣被解釋,谷歌員工通常把這句格言作為用戶服務準則。但是“不作惡”遠不止於此, “不作惡”是指為全球用戶提供沒有偏見的搜索服務。“不作惡”是指做正確的事,遵守法律,行為端正,與同事相互尊重。如今,谷歌的信一半的行為準則是

——做正確的事(do the right thing)。

谷歌:但使龍城飛將在 不教算法度陰山

結語

但使龍城飛將在,不教算法度陰山。

勝利來之不易,值得人們永遠銘記。向參與和推動谷歌高管做出正確決定的每一個科學家和工程師致敬,也向孕育善惡有知的企業文化致敬,向所有具有社會責任感的企業致敬。(完)

谷歌:但使龍城飛將在 不教算法度陰山


分享到:


相關文章: