04.06 我們不要像韓國那樣作惡:谷歌員工集體抵制公司AI軍事項目

“Don’t Be Evil”(不要作惡)是谷歌廣為人知的公司格言之一。但是最近它與美國國防部的業務來往似乎在違背這一指引公司方向超過15年之久的信條,這也引起公司內部員工的不滿情緒和隨後的集體性行動。

圖 | 這條格言代表了谷歌的公司文化

有近3000名谷歌員工共同署名一封公開信,要求首席執行官Sundar Pichai終止Maven項目,這個項目就是與美國國防部簽訂的合同,旨在開發一套“定製AI監控系統”,可能會被用於軍用無人機的目標識別。員工們還要求CEO發佈新的公司政策,明確谷歌和其承包商均不參與發展戰爭技術。

圖 | 印裔美國人CEO

這封公開信措辭比較直接,稱該公司正在失去其核心價值:“谷歌的歷史基於其獨立的理念,“不要作惡”,我們的成功來自於對數十億用戶生活的觸達,脫離這一信條顯然對公司發展不利”。隨後谷歌CEO也作出了回應,在一份向《紐約時報》發表的聲明中,他說與員工們的公開交流“非常重要和有益”,但並沒有提及具體的措施。他繼續表示,五角大樓要採用的這項技術可供“任何其它谷歌雲服務客戶”使用,而非專門用於攻擊性目的。

圖 | 谷歌標誌

另一家科技媒體Gizmodo此前報道過谷歌的Maven項目,報道認為這個項目要開發機器學習技術,用於無人機識別其鏡頭中的車輛和其它物體目標,從而減輕軍隊分析人員的負擔。當時五角大樓就解釋說,該技術不會用於開發一個自動武器系統,可以識別目標並在無人扣動扳機下就進行自動射擊。

圖 | 軍用無人機

事實上,谷歌不是唯一一家與軍隊共謀合夥的科技公司,微軟與亞馬遜都與美國國防部簽訂合同,為其開發雲服務系統。而最新傳出消息說,韓國科技研究院下屬的一個研究單位,要與一家武器公司聯合成立人工智能武器實驗室,於是AI發展的危險信號立即響起,來自30個國家的50位研究員呼籲抵制韓國科技研究院,與其斷交。由此可見人工智能的威力和風險很大,一旦和武器、戰爭扯上關係,人們敏感的神經馬上就會感到危險。

圖 | 殺手機器人模型

雖然也有一些相反的觀點認為,人工智能技術可以提高武器的精度,理論上降低平民的誤傷。但是毫無疑問,科技公司與軍隊的這種合作仍然是個危險的遊戲,很難把控技術運用的平衡度。雖然谷歌員工的“集體進諫”可以促使公司決策者更謹慎的選擇軍隊合同和發展業務,不過小編個人還是持悲觀態度。人工智能有點像潘多拉魔盒,已經打開了,間接或直接用於戰爭只是遲早的事情。因為AI的自我進化一旦啟動,會逐漸脫離人類創立者的控制,未來的新文明形態將超出人類的想象,我們只能期待這一切不要來得太快。