機器人殺人史:美軍血債纍纍早已屠戮上萬

自從二戰後計算機誕生,人工智能蓬勃發展,並很快投入到軍用。不過,最初的機器人技術落後,只能自動從事簡單單一的笨拙工作。比如說,在軍工企業的流水線上幹活等。他們僅僅是根據指令處理,指揮軀體工作,談不上有什麼真正的智能。

進入60年代,小型計算機快速發展,機器人對外界信息的感知能力大幅度提高,可以根據外界獲取的信息調整自己的動作。到這一步,人工智能才真正出現,軍用機器人也可以從事稍微複雜的工作了。1966年,美國一枚氫彈墜落到700多米的海中,擔任打撈工作的,就有軍用機器人“科沃”。科沃實際上是一艘自動化無人潛艇,裝備自動攝像機、聲納、推進器和機械手,在水面人員的協調下完成了打撈工作。

在科幻影視中,大家對機器人殺人抱有極度恐懼,似乎機器人殺人意味著世界的崩塌。科幻巨匠阿西莫夫很早就提出了機器人的三原則,第一條就是機器人不能殺人,而且是優先級最高的。但這只是劇情理論而已。實際上,人工智能除了用於拆彈、掃雷、運輸、偵查等軍事任務,早就開始直接殺人了。

機器人殺人史:美軍血債累累早已屠戮上萬

用機器人殺人最多的就是美國。美國的巡航導彈早已裝備自動目標識別跟蹤系統,數千次的發射,殺人不計其數。而無人機則是一種更恐怖的機器殺手,其具有比巡航導彈更先進的信息獲取、分析技術,除了指引導彈和戰機攻擊,很多無人機已經配上機炮與導彈,可以發動直接攻擊。近來,單是在所謂反恐戰爭中,由美國中央情報局直接指揮的無人機,每年就炸死了數百人,其中很多被殃及的無辜平民。這種無辜殺戮,大部分是推給所謂“情報失誤”。這一點也引起大批部分科學家的詬病,認為深化人工智能軍用,將會增加這種屠戮。

關於軍用機器人的研發,一向飽受詬病。2013年,聯合國人權機構的特別報告員克里斯托夫·海因斯就曾提交報告,呼籲各國凍結“殺人機器人”的試驗、生產和使用,以避免“全自動殺人機器人”上戰場並自主決定人類生死的情況。2017年,116名全球人工智能和機器人領域的專家發表聯名公開信,呼籲聯合國採取行動禁止“自主殺人機器”,稱其為“恐怖武器”。今年4月,3000多名谷歌員工向CEO桑德爾·皮查伊聯名上書,反對該公司參與五角大樓的軍用人工智能項目,最後竟真的迫使谷歌不再續簽相關合同。馬斯克為代表的2400名機器人科學家也在斯德哥爾摩宣誓稱絕不參與致命性自主武器系統的開發、研製工作。

機器人殺人史:美軍血債累累早已屠戮上萬

人權組織和科學家對“全自動殺人機器人”的擔心,主要是倫理道德層面的。科幻影視中的機器人濫殺無辜,或是某臺中央電腦產生邪惡意識,或是機器人本身由於故障或病毒或自主意識產生反抗、屠殺人類的思想,更多則是野心家或利益集團刻意造出了殺人機器人。但現實中,機器人濫殺無辜的可能性遠不止這些。

有智能的機器也是機器,是機器就有出故障的可能,而且智能化越高,出故障風險越大。全自動殺人機器導致濫殺固然是可怕的;半自動殺人機器照樣可能獲取錯誤的信息,造成對目標的誤判;後方遙控信號可能被幹擾,接收到錯誤的攻擊指令;攻擊系統也可能出錯傷及無辜。

更可怕的是操作機器的人。即使軟硬件不出故障,也可能因為操作者的疏忽大意甚至主觀惡意造成誤傷。美軍在伊拉克、阿富汗打著反恐名義殺傷的大量平民,很多是不能怪罪到武器系統或者情報部門頭上的。2011年美軍無人機在巴基斯坦一次殺死4人,因為美軍認為他們是“武裝分子”,無人機只是執行命令。事後證明這4人中有三人是婦女兒童,這個鍋,無人機是不背的。

機器人殺人史:美軍血債累累早已屠戮上萬

所以《華爾街日報》的說法也不無道理。報道認為,從地毯式轟炸、大威力核彈,進化到精確制導武器,是把殺傷的範圍越來越縮小。智能化的武器只會減少戰爭中的誤傷和附帶毀傷,不會帶來更大的傷亡數字。近年來美軍無人機的多次發生誤傷平民的事件,並非是智能化武器的錯,而是武器還不夠智能化,在情報識別方面出了問題。而五角大樓發展人工智能項目,正是為了更精確地識別、殺傷恐怖分子等敵人,防止誤傷無辜的平民。當然,即使是再先進再精準的人工智能,還是要看使用者。歸根到底,軍用人工智能,也只能按照美軍自己的標準去執行甄別和發動進攻。


分享到:


相關文章: