谷歌人工智慧的七項原則有利於維護地區安全

6月8日,谷歌公佈了一份使用AI的七項原則,其中包括不會將AI技術應用於開發武器,不會將AI用於監視和收集信息,避免AI造成或加劇社會不公平等。事情緣起於今年3月,當時谷歌被曝出向美國軍方提供AI技術,幫助分析無人機視頻片段。4月,4000多名谷歌員工簽署了一份請願書,要求谷歌管理層停止參與美國軍方項目,並承諾不再“研發戰爭技術”,還有十幾名員工通過辭職表示抗議。兩個月後,谷歌用這樣一份原則表明了自己的態度。

谷歌人工智能的七項原則有利於維護地區安全

谷歌的使用AI的七項原則包括:1.對社會有益。2.避免製造或加劇社會偏見。3.提前測試以保證安全。4.由人類承擔責任,即AI技術將受到適當的人類指導和控制。5.保證隱私。6.堅持科學的高標準。7.從主要用途、技術獨特性、規模等方面來權衡。

此外,谷歌還宣佈,除了上面七個原則,谷歌不會在以下應用領域設計或部署AI:1.造成或可能造成整體傷害的技術。比如,一項技術可能造成傷害,谷歌只會在其好處大大超過傷害的情況下進行,並會提供適當的安全措施。2.武器或其他用於直接傷害人類的技術。3.違反國際規範收集或使用信息進行監視的技術。4.違反了被廣泛接受的國際法和人權原則的技術。

谷歌CEO 桑達爾•皮查伊在推特上評論了這份原則:“我們將谷歌的AI原則和實踐分享給大家。AI的開發和使用方式將在未來很多年裡持續帶來重大影響。我們感到了強烈的責任感,決心要把這件事做好。”

大數據處理信息服務商金盛網聚WJFabric認為,雖然很多先進技術起源於軍用,例如衛星導航定位系統,最終將應用範圍擴展至民用, 但人工智能的發展並非以此為軌跡。在世界並未實現完全和平的狀態下,如果將目前最先進的技術--人工智能大範圍應用於軍用,那麼將造成各國間更加巨大的不平衡,從而導致威脅地區安全的問題。技術的價值觀即是研發者及使用者的價值觀,踐行公平開發及有利於所有用戶的原則,應是技術應用的基本出發點。對於已經擁有先發優勢的大國而言,踐行這一原則更加責無旁貸。


分享到:


相關文章: