專家提出:人工智慧比你想像的更危險

7月份,特斯拉CEO馬斯克聯名兩千多位AI專家,簽了一份承諾書,內容是永遠不開發AI殺人武器。這麼做有兩個理由,一是不該把生殺大權交給機器;二是致命AI武器的存在,會讓個人和國家承受危險的動盪。雖然這麼做的意圖是好的,但是牛津大學的學者莫瑞奧薩瑞·塔迪歐(Mariarosaria Taddeo)認為他們忽視了靜止的AI帶來的風險。公眾號“量子位”編譯了塔迪歐的觀點。

專家提出:人工智能比你想象的更危險

美軍曾經把AI分成兩種:一是移動的AI,也就是依託於實體機器人的AI,比如無人機、自動駕駛的軍艦;二是靜止的AI,就是僅僅存在於軟件系統的AI。而對戰爭來說,不僅只有硬碰硬,還包括網絡世界的暗潮洶湧。塔迪歐覺得,後者才更需要重視,“靜止”不代表不危險。比如,如果有人能利用AI造成全國範圍的停電,或者供暖系統癱瘓,就可能導致非常嚴重的後果。雖然目前還沒有發現AI直接造成物理傷害的事件,但不代表以後不會有。畢竟AI正在飛速普及。塔迪歐認為,社會的運轉越依賴AI,系統之間的衝突越可能帶來物理傷害。當AI與AI之間有了自主打擊、自主防禦的行為,就算沒有實體機器人,局面還是有失控的可能。

專家提出:人工智能比你想象的更危險

如今已經有很多國家在建立自己的AI防線了,但國際上仍然沒有法規能夠規範網絡防禦 (Cyberdefence)行為。塔迪歐在《自然》雜誌寫文章建議,網絡防禦要分三步走:第一步,劃定法律界限;第二步,在友好邦國之間,測試防禦策略;第三步,建立監管機制,強化法規執行。

專家提出:人工智能比你想象的更危險

希望以上觀點對你有啟發。


分享到:


相關文章: