美國國防創新委員會公佈了五角大樓的AI倫理原則

據外媒VentureBeat報道,由五角大樓提供建議的16名著名技術專家組成的小組國防創新委員會今天投票批准了國防部的AI倫理原則。

該報告包括12條建議,說明美軍將來如何在戰鬥和非戰鬥AI系統中應用道德規範。這些原則分為五個主要原則:負責,公平,可追蹤,可靠和可管理。

美国国防创新委员会公布了五角大楼的AI伦理原则

原則指出,人類應繼續對“發展、部署、使用和成果”負責,軍方使用的人工智能系統應避免可能導致意外傷害的偏見。國防部部署的AI還應該可靠、可管理,並使用“透明且可審核的方法,數據源以及設計過程和文檔。”

“您可能會在[AI倫理原則文檔]中看到公平一詞引起的共鳴。我會告誡您,在許多情況下,國防部不應該公平。” 國防創新委員會成員和卡耐基梅隆大學研究副總裁Michael McQuade週四表示。“這應該是一個堅定的原則,即我們的系統中不應有意外的偏見。”

Applied Inventions聯合創始人和計算機理論家Danny Hillis及其他委員會成員同意對文件草案進行修訂,稱可管理原則應包括“避免意外傷害和破壞以及避免人為部署系統的脫離接觸。”Hillis表示,該報告應明確這點。軍方使用的AI系統應配備一個關閉開關,以防萬一情況出錯時人為按下。

“我認為這是關於它們的最具問題性的方面,因為它們能夠展現和發展出設計者很難預測的行為形式,有時這些行為形式實際上是一種自我保護的行為形式,可以他與設計者的意圖和目標有些脫節,所以我認為這是關於它們的最危險的潛在方面之一。”他說。

國防創新委員會由谷歌前首席執行官Eric Schmidt主持,成員包括麻省理工學院CSAIL主任 Daniela Rus,海頓天文館主任 Neil deGrasse Tyson,LinkedIn聯合創始人Reid Hoffman,Code for America主任 Jennifer Pahlka和Aspen 研究所主任Walter Isaacson。

國防部發言人告訴VentureBeat,題為“人工智能原則:國防部關於人工智能在倫理上的使用的建議”的文件和相關的白皮書將在國防創新委員會的網站上共享。現在,這兩者都將與國防部領導共享,以供他們決定是否採納任何原則。

展望未來,委員會希望負責國防部內領先AI計劃的聯合AI中心與國防部長Mark Esper合作,制定溝通和政策命令,以確保原則能夠成功,在可重複性,加強AI測試和評估技術,並創建年度AI安全和保障會議。

道德原則通過兩個紅隊演習進行了研究,以考慮它們如何影響作戰決策並認識到AI的潛在意外後果。它還承認指導美國國防部道德規範的現有文件,例如美國憲法,2015年版《戰爭法手冊》和1949年日內瓦公約。

道德原則文件強調了俄羅斯等國不斷增長的AI投資。

“在國家安全的高風險領域中,必須指出的是,美國正處於與威權主義國家的技術競爭中,這些國家正在以與民主國家所期望的法律、道德和道德規範相牴觸的方式來追求人工智能應用。報告的目的是,我們的目標是建立在國防部長期的道德框架中提供的原則,該原則在過去的幾十年中經受了新興軍事特定或雙重用途技術的出現和部署,並反映了我們的民主規範和價值觀。”

週四發佈的原則是一個為期15個月的過程的產物,該過程將收集來自公共論壇和AI社區領導人(例如Facebook首席AI科學家Yann Le Cun,前MIT媒體實驗室主任,Joi Ito,OpenAI研究總監Dario Amodei博士、斯坦福大學前首席AI科學家李飛飛博士)的評論和見解,也歡迎公眾發表意見。

在今年春季在硅谷舉行的一次公開會議上,人工智能專家和反對致命自動機器人的人們就五角大樓和美國服務人員可能面臨的潛在道德挑戰發表了意見,例如改進目標檢測或武器瞄準系統。當時,微軟的道德與社會道德總監Mira Lane等人認識到美國對手可能缺乏道德上的困擾,但美軍可以在定義未來如何以及如何不使用AI方面發揮重要作用。AI倫理中軍事領導的概念在週四再次出現。

McQuade表示:“這是一個領導全球對話的機會,這種對話建立在我們是誰,我們作為一個國家和部門如何運作以及我們從何而來的基礎上。”

Schmidt在今年早些時候由斯坦福大學人類中心人工智能研究所舉行的一次會議上說,人工智能倫理報告的目的以及計劃於下週向國會提交的關於人工智能報告的國家安全委員會旨在幫助美國建立國家人工智能政策,全球30多個其他國家已制定了類似的AI政策。

他們週四在喬治敦大學的DIB會議上還討論了以下話題:國防部和聯合AI中心如何招募和保留AI-ML人才;討論軍隊如何缺乏數字創新;以及增加採用精益設計,技術技能,為服務人員提供AI教育以及開展AI就緒型軍事運動的建議。


分享到:


相關文章: