「點評」自主武器系統等於“殺人機器人”?聯合國探討其合法性

2017年,聯合國在日內瓦舉行《特定常規武器公約》框架下可致命性自主武器系統第二次正式專家會議,來自聯合國《特定常規武器公約》締約方的幾十個國家、地區和國際組織(包括如聯合國裁軍研究所、國際紅十字委員會等)參加了會議,其中包括中國外交部和國防部也派遣代表參會,與會人員對可致命性自主武器系統特別是其定義以及對倫理道德和國際法的衝擊進行了激烈討論。


「點評」自主武器系統等於“殺人機器人”?聯合國探討其合法性

自主武器系統等於“殺人機器人”?

軍用無人系統因其零傷亡和對複雜任務的良好適應性,被認為將是繼火藥和核武器發明之後的革命性武器,它的廣泛使用將完全改變現有的戰爭形態和格局,甚至改變戰爭的本質,因而受到各國的高度重視。但是,軍用無人系統自主性的發展和作戰運用對倫理、道德、法律層面所帶來的挑戰,也引起了國際社會的廣泛關注和擔憂,國際輿論和立法將深刻影響和制約軍用無人系統發展與運用的走向。

隨著人工智能和信息技術發展,技術層面基本上已經不再是制約軍用無人系統發展的瓶頸,各種軍用無人系統,特別是以無人機為典型的軍用無人系統已廣泛應用到軍事領域並在反恐領域取得實效。可致命性自主武器系統就是在無人化平臺上搭載可致命性武器載荷的軍用無人系統。

一些激進的和平組織和人士將自主武器系統稱呼為“殺人機器人”。研究國際社會對軍用無人系統發展的方向輿論,特別是其在倫理道德以及國際法層面所帶來的挑戰,可以對未來軍用無人系統發展趨勢做出有意義和有效的前瞻,對於我國和軍隊發展運用軍用無人系統、合理規避國際爭議,具有一定的戰略價值。

以美國為例,美國的地面無人系統,如角鬥士多用途無人戰車已大量列裝海軍陸戰隊。執行偵察、戰場運輸和排雷等任務的專用機器人如第一眼、非洲獵豹等也投入了使用。海上方面,美國研發了多種可長時間自主巡邏海岸、港口並識別可疑船隻的無人巡邏艇,正在試驗的無人潛航器可執行偵察監視、探雷掃雷和攻擊等任務。無人機方面,1995年7月,捕食者無人機首次加入巴爾幹地區的軍事行動以來,美軍的無人機已被先後部署到本土以外的8個國家。特別是“9·11”事件以後,美國開始在全球部署可致命性無人機。據美國智庫機構新美國基金統計,2004年—2013年,無人機在巴基斯坦和也門共執行過428次攻擊任務,造成2439~3982人死亡;其中在巴基斯坦境內攻擊355次,造成2003~3321人死亡。在2017年5月份召開的致命性自主武器系統專家會議上,巴基斯坦用了長達5頁紙的內容表達了對未來自主武器系統的深切擔憂。

「點評」自主武器系統等於“殺人機器人”?聯合國探討其合法性

美軍未來戰鬥系統騾子無人車

現有軍用無人系統的合法性問題

研究現有軍用無人系統的合法性問題,有效運用和發展現有軍用無人系統技術是十分必要的。對現有的軍用無人系統,可將其分為非致命性軍用無人系統和可致命性軍用無人系統分別進行討論。

非致命性軍用無人系統的合法性問題。一般來講,非致命性軍用無人系統多應用於偵察監視、障礙物清除、搜索營救、爆炸物拆除、生物化學武器探測等非戰爭軍事行動和反恐領域。通過應用這些非致命性軍用無人系統,可以使原本需要由士兵執行的任務由無人系統來執行,有效降低士兵傷亡率;一些不適宜由人類執行的複雜環境的任務也可以交由無人系統執行,提高任務效率。很多技術專家強調機器人技術的“雙重使用屬性”,強調不能因為害怕致命性自主武器系統的潛在威脅就停止發展人工智能和自主系統,因為它們可以很完美地應用在民事領域以及非戰爭軍事行動中,“可以給我們的生活帶來積極的改變”。

現有可致命性軍用無人系統的合法性問題。現有致命性軍用無人系統都是由人類遠程操控進行的,一般認為,目前尚未出現完全意義的致命性自主武器系統。對於現有致命性軍用無人系統的合法性,國際社會頗有爭議。“探討致命性軍用無人系統的合法性,一般是看該種新形式、新手段的武器是否嚴格遵守軍事衝突的國際法律”。所有這些新武器都必須嚴格遵守國際人道主義法的基本規定,包括區分原則、比例原則、軍事必須原則以及人權原則。

《1949年8月12日日內瓦公約關於保護國際性武裝衝突受難者的附加議定書》(第一議定書)就區別原則和比例原則做出了規定,要求攻擊行動應限於軍事目標,平民和平民目標不得作為攻擊目標,並且禁止實施可能給平民生命、健康、財產或三者同時造成意外損害,與預期的具體和直接軍事利益相比損害過大的攻擊。以攻擊型無人機為例,它是由戰鬥人員進行操控並下達攻擊命令,其本身並不能自主飛行(僅在無人機與操作人員失去聯繫的時候,無人機才會加載自動飛行模塊進行自動返航)和攻擊。其作戰的軍事必須性是由作戰司令部或者作戰指揮員決定和負責。戰鬥人員通過遠程畫面對敵方戰鬥人員和平民進行區分然後攻擊。攻擊使用的是掛載的導彈,與一般飛機無異。

因此,承擔戰爭責任的決策者和行為主體都是明確的,武器使用的也是常規的導彈,我們可以認為現有的以攻擊型無人機為典型的可致命性軍用無人系統本身是合法的。

「點評」自主武器系統等於“殺人機器人”?聯合國探討其合法性

1980年,聯合國簽署《特定常規武器公約》

但是正如奧地利專家擔憂的:“我們非常懷疑一個預先程序化的無人武器系統能夠在一個人類遠程的控制下,通過人類對情況的判斷,做出準確而必要的決定。也就是說,如何讓我們相信殺傷性的武力是否是在某個人類控制下,針對每個情況,理性而準確的做出決定,從而使該個人類能夠在國際法約束下履行責任。”這種擔憂是有道理的,因為比例原則的根本意義在於當保護不可能是絕對的時候,應秉承善意,用人道和軍事需要這兩項原則互相制約,從而達到最大程度保障無辜平民生命權的目的。

然而基於兩方面的原因,可致命性無人系統可能更容易造成不必要和不成比例的平民傷亡。一是軍用無人系統給攻擊策劃者和實施者創造一個與現實割裂的虛擬的戰場環境,難以讓操作人員全面掌握真實而準確的戰場信息,尤其是在準確辨識攻擊目標方面。二是操控者置身事外的心態不利於其以剋制的情緒操控武力。有操控者在接受媒體採訪時表示,按下導彈發射按鈕的那一刻是他最有成就感的時候。操控者在進行操作的時候可能會形成一種進行電玩遊戲的心態,其動用武力的意願在不經意間就遭到了強化,有可能對平民等非軍事目標造成不必要的傷害。

未來可致命性自主武器對國際社會帶來的挑戰

「點評」自主武器系統等於“殺人機器人”?聯合國探討其合法性

美軍在阿富汗使用無人機空襲後造成平民傷亡

嚴重挑戰現有國際法對於戰爭主體的定義。無人機如果完全自主選擇、識別、攻擊目標,那麼這種無人機很難僅僅被視為一種武器,而是具有某種程度人類才具有的“主體”地位。國際人道主義法從產生到至今,關注的一直都是人的問題,如對作戰方法和手段的限制、戰俘待遇、平民的保護等,所有的原則、規則和制度都是從人的角度出發,通過人來解決。機器以及人與機器之間的關係,在國際法中迄今為止未列入考慮範圍。那麼如果一個自主武器殺害了平民,究竟誰該承擔責任,是追究自主武器自身的責任還是其設計者的責任,抑或可能存在的操控者的責任,還是或者說沒有人該被追究責任?這種“反客為主”的無人機不僅對現有倫理道德構成威脅,而且對國際人道主義法存在本身也形成根本挑戰。

嚴重挑戰現有國際法的基本原則。國際人道主義法的基本規定,包括區分原則、比例原則、軍事必須原則以及人權原則。殺人機器人如何在瞬息萬變的戰場上瞬間區分敵人和平民而不誤傷平民,如何能在複雜戰爭環境下仍能作出在國際人權法律要求下的決定,嚴格遵守國際人權法都不能得到保證。機器人只能執行人類預先設定的程序,目標是否可以通過某種算法結合某種生理特徵而被鎖定或者區分,比如“大鬍子”,那麼是否意味著所有的有“大鬍子”的都是敵人或者恐怖分子?而且對一個機器人武器來說,判斷一個人是否離開戰鬥、失去戰鬥力的評價也存在很大的問題。造成人類死亡的決定是由沒有感情的機器決定的,這也是對人類生命權和生命尊嚴的侵犯,嚴重違反了國際人權法的人權原則。機器畢竟是冰冷的機器,不是有血有肉的人類,不具備人類天生所具有的悲憫和善良,不具備倫理和道德的觀念,他們只會嚴格的執行任務,殘酷的殺死一切鎖定目標,而不管正確還是錯誤,都嚴重違背了國際人道主義法的基本原則。

自主武器發展還將加劇損害不發達國家及其人民的人道主義權利,引發全人類的生存危機。正如聯合國法外處決、即決處決或任意處決問題特別報告員克里斯托夫·海恩斯所說:“人們不應當忘記,飛機最初在武裝衝突期間使用時也只是用於偵察目的,不考慮為進攻性目的使用。後來的經驗表明,一旦相關技術日臻完善,最初的考慮和保證往往被拋擲腦後。”當發達國家自主武器發展到一定程度,他們未必能阻止甚至可能樂見投入使用致命性自主武器,因為使用機器人意味著“零傷亡”,但是這是一場非對稱戰爭,是一場一邊是機器人而另一邊是人類的戰爭,這嚴重損害了不發達國家及其人民的人道主義權利,必將促進各個國家展開新一輪軍備競賽,成為引發全球戰爭威脅的誘因,帶來全人類的生存危機。

「點評」自主武器系統等於“殺人機器人”?聯合國探討其合法性

自助致命武器如果落入恐怖分子手中,將是一場災難。圖為美國“9·11”恐怖襲擊

自主武器氾濫將會導致全球恐怖主義氾濫。致命性自主武器將如同核武器一樣,同樣帶來擴散的威脅,放任致命性自主武器的發展和氾濫,恐怖組織和不法分子必將大肆利用致命性自主武器,從而導致全球恐怖主義的亂潮。2015年11月,“伊斯蘭國”在巴黎和馬裡的恐怖主義行動造成了大量無辜平民的死亡。各個國家和國際社會應該仔細考慮這項技術落入如“伊斯蘭國”等激進的恐怖組織手中的後果。這些群體大量依賴於自殺性爆炸事件達成其戰術和戰略目的。落入這些團體的手中的致命性自主武器將造成比他們使用自殺性爆炸更大的影響後果。此外,這還可以防止他們招募的新兵的死亡。

國際社會如何應對未來可致命無人武器系統

現階段軍用無人系統仍屬於合法武器的範疇,其對國際法的挑戰主要集中在可能違反比例原則、造成過分平民死傷或民用物體毀損上,以及由此產生的責任問題。但是從現實來看,美國等軍事強國仍將繼續大力推進致命性無人系統研發,致命性自主武器也有可能落入恐怖分子手中,研究軍用無人系統發展的倫理道德困境和國際法理發展具有重要意義。國際人道主義法以及聯合國《特定常規武器公約》一直設法將武裝衝突帶來的影響限制在一定範圍內的規則,國際法未來可能會從以下方面應對軍用無人系統對倫理道德和現有國際法的挑戰。

有可能會頒佈一個預先禁令。有鑑於未來可致命性自主武器系統所帶來的威脅,一些國家呼籲對致命性自主武器頒發一個預先禁令,正如日內瓦公約第一附加議定書第36條規定:“在研究、發展、取得或採用新的武器、作戰手段或方法時,締約一方有義務斷定,在某些或所有情況下,該新的武器、作戰手段或方法的使用是否為本議定書或適用於該締約一方的任何其他國際法規則所禁止。”在統一的監督、法律、應用框架建立前暫停致命性自主武器的研究、生產、部署和使用。但是一些國家有可能會利用技術的“雙重使用屬性”,搞表面一套背後一套,表面遵守禁令,開發自主系統的民用發展用途,但其實亦可以快速部署于軍事用途。因此一旦頒發這個禁令,必須加強對這個禁令執行的監管。

「點評」自主武器系統等於“殺人機器人”?聯合國探討其合法性

2017年,聯合國在日內瓦舉行《特定常規武器公約》框架下致命性自主武器系統第二次正式專家會議

在《特定常規武器公約》平臺上建立統一的框架和協議,用於審查、監督致命性無人系統的發展和應用,增加致命性無人武器研發的透明性。致命性無人武器審查的目標應該是確保系統不會因系統故障或意外失控繼續作用,並導致意外傷害。同時加強對致命性自主武器系統進行控制,防止致命性無人武器系統的非法獲得。同時應嚴格測試系統應對網絡攻擊的堅韌性,編程錯誤和部署錯誤發生時的應對以及評估,嚴格遵守第36條附加協議。

為可致命性無人系統增加有意義的人類控制。各國都強調致命性無人系統對國際人道主義法原則的嚴格遵循,因此必須對可致命性無人系統增加有意義的人類控制,使機器人在選擇、識別、攻擊目標時絕對由人類控制,而不是由機器自主選擇。這一點是《特定常規武器公約》致命性自主武器系統專家會議所有國家和組織的共識。正如聯合國日內瓦辦事處執行總幹事Michael Moller所說:“人類最終的生命權應該掌握在人類自己手上。”

結 論

軍用無人系統作為一種新型武器,對國際政治和國際法律造成了諸多挑戰。因此,國際社會特別是軍事大國應儘快規範軍用無人系統的研發、部署和使用規範。對此,中國也應該積極應對,主動參與相關會議討論和法律法規制定,探討適合中國國情和發展的軍用無人系統的研發、部署和使用規範,而不應只關注于軍用無人系統的技術本身,為我國發展和運用軍用無人系統合理規避爭議,提高軍用無人系統的國際話語權做出努力。


分享到:


相關文章: