慕尼黑“中美人工智能安全對話”的重點之一

慕尼黑“中美人工智能安全對話”的重點之一


2020年2月14日,在慕尼黑安全會議期間,清華大學戰略與安全研究中心與美國布魯金斯學會舉行“人工智能與安全項目”對話會。中美學者團分別由清華大學戰略與安全研究中心主任傅瑩(全國人大外事委員會副主任委員)和美國布魯金斯學會會長約翰·艾倫(John Allen,前駐阿美軍司令,海軍陸戰隊四星上將)帶隊,部分中方學者通過視頻方式遠程參會。

“中美人工智能安全對話”第一輪會議在2019年10月於京召開,在此基礎上,雙方學者分小組就不同議題進行研究。此次會前雙方交換了項目第一階段研究成果,並在會上進行觀點闡述和研討。在成果展示後,雙方學者就一系列議題進行了熱烈討論,包括人工智能武器目標禁區的劃定、比例原則與人的監管在人工智能安全中的應用、人工智能訓練數據範圍的限制、人工智能規範的構建和風險控制等。


慕尼黑“中美人工智能安全對話”的重點之一


對話中人機關係和自主性問題是本次對話的重點,在這方面中美雙方的主要觀點有:

未來人工智能和正義的戰爭應該承擔著人類和平的使命,人負責做正確的事(方向性),公平正義、共同命運、安全可控,而人工智能只是正確的做事(過程性),快速準確、海量存儲、可形式化。同時,未來的戰爭很可能就是人機環境系統交叉融合的戰爭。從根本上講,人類未來的戰爭將不再是傳統意義上競爭型的對抗關係,而是有著底線的合作型對抗(對立統一)關係,更進一步說,這種合作型對抗關係將不僅是兩方的,還是多方協調協同的。在核武器、生化武器的不斷蔓延和擴散的時代,國家無論大小,國與國之間的未來戰爭成本將會越來越高。中美兩國作為人工智能技術發展和應用的大國,應該攜手合作、深入思考並理性應對這一隱患,並尋求一條和平利用人工智能的剋制之道。


慕尼黑“中美人工智能安全對話”的重點之一


在各種層級的軍事對抗領域中,人機關係尤為突出和重要,在可預見的未來,人主機輔的態勢很難改變,對於執行過程中的智能裝備和管理機制系統,人必須在系統環中或環上,而且關鍵之處有多人的備份監控,人機融合體應是與人相同的主體責任承擔者。 除了人機關係之外,機器裝備和管理機制的自主性也很重要,這種自主性不僅包括研發者事先賦予的(規則統計性),還涉及到執行者實時操作的(隨機概率性),應確保這種自主性能夠具有基本的同情共感能力,使之能夠理解戰略規則後對手的基本意圖,而不僅是事實性的刺激—反映,進而減少戰術“投射效應”,杜絕戰略“投射效應”,有效地保障賦能後的武器和管理系統的剋制及控制程度。


慕尼黑“中美人工智能安全對話”的重點之一


如果說軍事機械化、自動化、信息化改變了戰爭的“態”和“感”,那麼軍事智能化有可能會改變戰爭的“勢”和“知”,未來的“態勢感知”相比傳統意義上的“態勢感知”將會更深入、更全面,形成一種深度態勢感知,即人機環境系統融合的軍事智能形式,其主要特徵為:人機性更快、協同性更高、不確定性更強、自主性更靈、交叉性更多、威脅性更大等,所以對其應邊界性更清晰、條件性更明確、約束性更嚴。其中人機環境中的“機”,既包括機器裝備也包括機制管理,正式的國際法以及非正式的相互共識都會涉及,而對於不斷快速發展的軍事智能化現狀,法律規則的制訂遠不如非正式的相互共識更及時有效。從軍事智能技術管理本身內在的侷限和雙方博弈人為製造的外在侷限來看,這種共識的基礎底線應該就是:對抗中,無論是戰術還是戰略中,人必須在系統中,在涉及諸如核武、生武等後患無窮的軍事應用中,系統中需要多人同時在系統中。敵我雙方不僅有對抗關係還應有合作關係,即不以毀滅人類為目的;那麼如何建立起雙方AI研發者、使用者與系統之間的信任關係將變得越來越重要,目前人機融合的解決辦法有兩個:第一個是讓人參與到系統的訓練過程中(這裡涉及到人何時、何地、何方式有效參與到系統中的問題),第二點是儘可能的多分配決策的任務給人來完成(這裡涉及到如何篩選出適合人的決策任務及其防止“投射效應”程度的問題)。儘管已經有人做過實驗證明了這兩點可以增加人對機器/系統的信任程度,但該結論是否具有廣泛性?需要進一步深入分析和研究。


慕尼黑“中美人工智能安全對話”的重點之一


真正的智能或者是人工智能不是抽象的數學系統所能夠實現的,數學只是一種工具,實現的只是功能而不是能力。只有人才產生真正的能力。所以,人工智能是人、機器、環境、系統相互作用的產物,未來的戰爭也是機器計算結合人的算計所得出的洞察結果。


慕尼黑“中美人工智能安全對話”的重點之一


戰爭是一團迷霧,存在著大量的不確定性,是不可預知、不可預測的。從當前人工智能的發展趨勢來看,可預見的未來戰爭中,存在著許多人機融合隱患仍未能解決,具體有:


一,在複雜的信息環境中,人類和機器在特定的時間內吸收、消化和運用有限的信息,對人而言,人的壓力越大,誤解的信息越多,也就越容易導致困惑、迷茫和意外。對機器而言,對於跨領域非結構化數據的學習理解預測,依然是非常困難的事。


二,戰爭中決策所需要的信息在時間和空間上的廣泛分佈,決定了一些關鍵信息仍然很難獲取。而且機器採集到的重要的客觀物理性數據與人類獲得的主觀加工後的信息和知識很難協調融合。


三,未來的戰爭中,存在著大量的非線性特徵和出乎意料的多邊性,常常會導致作戰過程和結果諸多不可預見性,基於公理的形式化邏輯推理也遠遠不能滿足複雜多變戰況決策的需求。


四、自主性武器分為三類:“人在迴路中”、“人在迴路上”要有限控制,“人在迴路外”嚴格禁止!傾向於禁止研發特別是使用“人在迴路外”的武器,是世界各國的共同責任。


五、無論人工智能怎麼發展,未來是屬於人類的,應該由人類共同定義未來戰爭的遊戲規則並決定人工智能的命運,而不是由人工智能決定人類的命運,究其因,人工智能是邏輯的,而未來戰爭不僅僅是邏輯的,還存在著大量的非邏輯因素。


六、對於世界上自主技術的發展情況,建議中美設立聯合評估小組,定期對自主技術發展情況進行細緻的評估與預警,對技術發展關口進行把關,對技術發展進行預測分析,對進行敏感技術開發的重點機構和研發人員進行定向監督,設立一定程度的學術開放要求。同時建議中美兩國一方面在這方面的科學倫理上加強合作,一方面聯合設立限制軍用自主技術開發的合作機制,一方面加強對民用自主技術領域合作與競爭的監控。


分享到:


相關文章: