人工智能高速發展,政策制定落後於技術進步?大西洋理事會提出建議

近年來,人工智能(AI)終於開始展示其巨大的力量,來重塑市場、公共部門、國家安全領域和更廣泛的社會。過去十年來的技術發展,如,基於計算能力大幅度提高,可用於"訓練"人工智能系統的數據量大幅度增加以及新的機器學習技術的突破,使得人工智能得以應用於更為廣泛的領域。人工智能的應用隨即對現實世界產生了一系列積極和消極的影響。2020年3月27日,大西洋理事會發布了一則題為《AI, society and governance: An introduction》的報告,報告介紹和闡明跨多個領域的AI策略,提出在人工智能領域,政策制定落後於技術的進步,並對這一過渡時期需制定的策略提出了建議。

人工智能高速發展,政策制定落後於技術進步?大西洋理事會提出建議

在過去幾年中,世界各地的公共部門、私營部門、公司、大學和其他組織已經開始處理許多與人工智能相關的政策問題。在公共部門內,人工智能決策不限於國家政府。除多邊機構外,各級地方、州/地區和國家政府一直在應對與人工智能相關的挑戰,並試圖制定應對這些挑戰的政策。這表明人工智能已經開始影響人類生存的幾乎每個方面。至少在這個領域,政策肯定落後於技術進步。政策制定者現在正急於趕上。

人工智能政策制定是新的領域,並沒有一套公認的最佳策略,因此,實踐顯得尤為重要。加拿大政府在2016年制定了第一個國家人工智能戰略。從那時起開始,數十個國家競相制定自己的人工智能戰略和政策,儘管內容、目標、機制和資金水平差異很大。正如一位評論員所說,人工智能策略可以被定義為"最大化人工智能利益,同時最小化其潛在成本和風險的公共政策"。

一、人工智能策略制定的領域

(一)倫理規範

如此多的組織都在努力定義人工智能的倫理用途,這一事實本身就證明了一種恐懼,這種恐懼長期以來一直在激發人們對人工智能的思考,包括它令人難以置信的力量,以及它可能如何被用於有害和不道德的目的。這種恐懼激發了集體想象力,激發了無數科幻書籍和電影。在許多其他領域,如科學、技術、政治和人文等,思想家們依舊對人工智能在我們居住的世界中潛在毀滅性應用持保留態度。從亨利·基辛格到斯蒂芬·霍金等名人都警告說,人工智能總有一天會對人類的生存構成威脅。

這種對機器接管的恐懼圍繞著"廣義人工智能"的發展,這一術語指的是擁有某種超人智能的人工智能系統。廣義人工智能還不存在。真正存在的是"狹義人工智能",即應用於特定任務的人工智能。區別在於:"今天的人工智能被恰當地稱為狹義人工智能(或弱人工智能),因為它被設計來執行較為單一的任務(例如,面部識別或互聯網搜索或駕駛汽車)。然而,許多研究人員的長期目標是創造廣義的人工智能(AGI或強人工智能)。狹義人工智能在任何特定任務(如下棋或解方程)上都可能優於人類,但AGI在幾乎所有認知任務上都會優於人類。"

對廣義人工智能的研究仍處於初級階段。該領域的研究人員估計,廣義人工智能可能在本世紀中葉開發出來,或者需要更長的時間。然而,考慮到廣義人工智能開發的風險,一些專家主張從現在開始就要謹慎行事。他們認為,政府應該在人工智能完善之前,就對人工智能的發展進行保護,以避免出現類似終結者的場景。

人工智能高速發展,政策制定落後於技術進步?大西洋理事會提出建議

在某種程度上,為了超越人工智能的說法,世界上最大的科技公司,包括谷歌和微軟,一直在高調創建這樣的"人工智能倫理"準則。例如,谷歌的人工智能原則列出了責任、安全和保證人工智能系統公正的承諾等內容。這些企業制定AI倫理指南的工作也成為最受關注的部分,主要是因為這些世界上最大的科技公司是以生產人工智能產品而使自己盈利為目標,並希望藉此鞏固在該領域全球技術領導者的地位。

(二)公平和正義

這一政策領域是人工智能領域中最受關注和爭議的領域之一。主要圍繞著人工智能系統是否反映、再現、甚至放大了社會問題進行研究。對於如何理解這一挑戰,以及如何構建能夠對抗、預防或最小化這類問題的人工智能系統,人們展開了一場持續的討論。當涉及到人類性別特徵、社會經濟地位、性取向、種族和宗教地位的人工智能系統決策時,這種爭論尤其令人擔憂。

人工智能系統產生的決策,對很多人來說,可能是非常真實的。例如,這種系統可以決定誰能夠獲得公共和私人資源和服務,誰受到國家當局的監督,誰在招聘過程中被篩選,給消費者的信用評分是多少,並且可以決定警察和法院如何解釋和執行法律。這些決策過程中的每一個都在篩選人們,或者對他們進行排序,正面和負面的影響取決於選擇的狀態。

正義和公平問題一方面涉及人工智能工具如何構建,另一方面涉及人類如何使用這些工具。缺乏有效性意味著人工智能工具沒有"對真實世界的忠誠",這意味著該工具的應用脫離了現實環境。偏差是指人工智能工具如何在預測中系統性地出錯,尤其是對某些類別的人。這種人工智能偏差可能發生在成幀、數據收集和數據準備階段。在這些階段,人工智能系統的設計者可以有意地或通過致盲將偏差引入到算法和/或訓練數據中,防止設計者看到他們是如何使結果分析產生偏差的。

人工智能高速發展,政策制定落後於技術進步?大西洋理事會提出建議

有幾個引人注目的案例涉及到這種被稱為"算法偏見"或"機器學習偏見"。例如,谷歌和亞馬遜都遭遇了尷尬的曝光,分別涉及到圖像搜索和招聘算法中的偏見。谷歌的圖像搜索系統無法準確識別少數民族。對亞馬遜來說,它的招聘算法將較高的分數分配給男性。亞馬遜的設計者並不希望出現這種結果,但他們構建的人工智能系統"學會了"根據算法的性別不平衡設計參數去選擇男性而不是女性。

(三)隱私、消費者保護和數據可用性

隱私和消費者保護問題也是備受關注的政策領域。人工智能系統可以從收集到的個人數據中分析個人的評價。因此,政府和企業可以獲得大量的行為和人物數據,這些數據描述了一個人的過去,然後被基於人工智能的模型用來預測這個人未來的行為。

人工智能為數字隱私政策討論增加了一個新的層面,涉及到行動者是否有權從個人收集的信息類型和數量以及如何處理這些數據的問題。上文提到的歐盟可信人工智能道德準則包括一個專門針對隱私的準則。該準則稱隱私為"基本權利",稱"充分的數據治理"應涵蓋所用數據的質量和完整性、與人工智能系統部署領域的相關性、訪問協議以及以保護隱私的方式處理數據的能力等。

人工智能高速發展,政策制定落後於技術進步?大西洋理事會提出建議

(四)國家人工智能戰略和產業政策

各國政府正在將人工智能的商業發展作為中心目標,制定國家人工智能戰略和產業政策。

國家人工智能戰略代表了政府試圖組織其對人工智能的思考,並因此圍繞一系列戰略目標調整其政策目標和利益相關者。產業政策並不完全一樣。這是一個可延展的概念,但通常指國家對工業發展的直接和間接支持,特別是國家將支持那些被認為對國家經濟繁榮和/或國家安全具有戰略重要性的目標工業部門。產業政策工具清單可能包括設立技術發展基金、國家指導的集群投資(旨在促進地理"集群"效應)、外國技術轉讓要求(要求外國公司在某些條件下轉讓其技術)、對工人技能培訓有針對性的支持等。

無論名稱如何,各國政府一直在試圖組織人工智能的戰略方法。一項研究稱,截至2019年7月,已有41個國家制定了國家人工智能戰略,或表示有興趣制定此類戰略。在已經發布框架文件的19個國家中,大多數州(16個)優先考慮人工智能的研發,其次是人工智能人才的開發(11個)、人工智能作為產業戰略的一部分的應用(9個)、道德和法律準則的制定(8個)、人工智能相關基礎設施的投資(6個)以及人工智能在政府中的發展。

2019年,美國政府通過行政命令發佈了自己的人工智能戰略,強調R&D、標準和勞動力發展。這份文件是在奧巴馬政府2016年發佈R&D戰略計劃和一系列關注人工智能、社會和經濟的報告之後發佈的。同樣是在2019年,三名美國參議員提出了一項立法,該立法將創建一項國家人工智能戰略,更重要的是,為其提供資金。如果獲得通過,《人工智能倡議法案》將在五年內撥款20多億美元,用於資助一系列活動,包括建立人工智能協調辦公室、幾個研究中心,以及創建強大的人工智能評估標準。

(五)技術標準

根據國際標準化組織,技術標準規定了"材料、產品、過程和服務需要符合的要求、規範、指南或特性"。通過引入通用術語和規範,技術標準為市場繁榮提供了基礎。具體而言,技術標準為各種商業活動創造了基礎——允許技術之間的互操作,實現更快速的創新,鼓勵產品差異化,簡化商業合同,降低交易成本。

概括地說,政府有一系列的動機來創建(或鼓勵採用)強大的技術標準。在國內,政府有興趣幫助創造和擴大有希望的國內新技術市場。技術標準有助於促進這樣的市場。但是政府顯然也有興趣保護公共利益,而技術標準又可以促進這一目的。例如,公共衛生和安全考慮,從食品到手術到運輸,以及許多其他公眾關注的領域,是制定技術標準的首要考慮。

最需要人工智能相關技術標準的地方莫過於自動交通系統。儘管現在有很多類似行動,但沒有一個國家為自動系統制定一整套標準。美國政府按照其對技術標準的總體做法,只支持為自主汽車制定"利益相關者驅動的自願技術標準",並傾向於非政府組織,如國際汽車工程師學會(原汽車工程師學會)來進行研究發展。美國幾十個州已經考慮或頒佈了與自動車輛有關的初步立法,一些公司的目標是建立自己的(國家級)技術標準,以實現自主車輛測試。

(六)創新生態系統

人工智能高速發展,政策制定落後於技術進步?大西洋理事會提出建議

國家和國家以下各級政府都對創新生態系統的創建非常感興趣。世界領先的技術創新生態系統——如加利福尼亞灣區等城市和地區——不僅產生了世界上大部分的應用技術,而且還為當地居民創造了大量財富,進而為他們所在的國家創造了大量財富。鑑於人工智能相關技術將帶來的收益,政策制定者專注於確保他們能夠在自己的範圍內分享這一財富創造。

在國家和國家以下各級,許多公共部門政策和投資支持(或阻礙)創新生態系統的創建和增長。這種政策和投資可以與支持產業政策的政策和投資類型重疊,儘管公眾參與建設創新生態系統通常不被列為產業政策。

(七)賽博空間

人工智能使網絡安全複雜化,因為它極大地加速了網絡空間中的問題和機遇。網絡安全行業將人工智能視為打擊網絡犯罪和黑客攻擊的工具。因為其相信人工智能能比人類或軟件更快更有效地完成這些任務。然而,與此同時,攻擊者也可以利用這些優勢,他們可以使用人工智能更快地發現和利用軟件漏洞,生成更多的惡意軟件以壓倒網絡防禦,並創建更復雜和適應性更強的基於電子郵件的詐騙(網絡釣魚等)。

人工智能高速發展,政策制定落後於技術進步?大西洋理事會提出建議

在這種情況下,越來越多的關注點是"對抗性ML"(或"對抗性AI"),當攻擊者試圖破壞、愚弄或竊取ML/AI系統時,就會發生這種情況。對抗性攻擊有幾種變體,例如,"模型反轉"(攻擊者獲取用於訓練系統的訓練數據)和"模型竊取"(攻擊者試圖竊取模型的底層算法)。

"中毒攻擊"是另一種常見的對抗性攻擊,在機器學習模型中插入輸入,誘使系統做出與系統設計參數不同的分類決策(是/否、輸入/輸出等),在中毒攻擊中,不道德的行為體欺詐、欺騙、竊賊、敵對的外國政府,等等,操縱ML模型如何評估輸入,以便以有利於攻擊者的方式重新配置結果輸出。中毒攻擊會在模型的訓練階段對輸入數據帶來微妙的變化,這些變化設計得足夠小,可以逃避研究人員的檢測,但總體上卻顯著到足以在程序輸出中產生系統偏差。這種"添加少量精心設計的噪音"可能會產生實際後果,例如,醫療領域的"受騙"人工智能系統可能會命令不必要的醫療治療,構成醫療保險欺詐。

(八)犯罪、執法、欺詐和欺騙

人工智能是一個強有力的新工具,既能打擊犯罪活動,又能使之成為可能。在打擊方面,聯合國區域間犯罪和司法研究所(犯罪司法所)和國際刑事警察組織(國際刑警組織)是全球一級研究這一系列問題的主要多邊機構。2019年,他們發佈了一份概覽報告,認為雖然"許多國家"正在將人工智能應用於執法,但人們普遍對人工智能的效果缺乏瞭解,執法機構之間的國際協調程度也很低。犯罪司法所和國際刑警組織也正在牽頭就這一問題開展全球對話,2019年7月舉行了第二次年度執法人工智能全球會議。

(九)公共部門的效能

一個新興的政策領域涉及人工智能和公共部門,特別是關於政府如何從利用人工智能系統而獲益的問題。人們對人工智能對該行業的積極影響充滿熱情。政府運作是人工智能應用的理想選擇,因為它們涉及到基於法律要求的標準化程序,而法律要求(通常)很少改變。人工智能可以比人工更快、更少的錯誤處理這些類型的流程,減少積壓,提高客戶滿意度,更容易識別欺詐和濫用,並降低成本。

此外,人工智能可以協助其他重要的政府職能。監管監督就是其中之一。通過應用人工智能集成技術(除了人工智能之外,還有傳感器和遠程視頻),工廠和工地檢查可以變得更加普遍、有效和便宜。此外,同樣重要的是,人工智能可以生成預測分析,以預測何時何地可能發生嚴重的不良事件,例如,發電廠的機械故障、肉類包裝廠的致病性爆發或工廠的化學品洩漏。

(十)成本:財務和能源

還有一個很少被注意但很重要的領域,財務和能源領域。由於涉及人工智能研究的高成本,所以既限制了誰可以參與人工智能系統的開發,又限制了進行研究可以使用多少資源。麻省大學的研究人員在2019年6月發表的一篇論文中發現,就這兩種資源而言,訓練大型人工智能模型的成本都很高。儘管人工智能模型有很多,運行它們所需的資金和能量也有很大差異(主要是雲計算需要資金),但研究人員發現這些成本隨著模型的複雜性呈指數級增長。

(十一)致命自主武器系統

最後一組政策問題主要在國家安全領域。這些包括人工智能和致命武器,特別是"致命自主武器系統"的發展和它們在戰場上的使用。對於世界主要大國的國家安全機構來說,最重要的政策優先事項很簡單:在缺乏對自主武器系統具有約束力的情況下,最重要的優先事項是獲得足夠的資源來開發、測試和部署集成人工智能的系統,以確保優於本國的地緣戰略和軍事對手。

人工智能高速發展,政策制定落後於技術進步?大西洋理事會提出建議

關於人工智能的使用,他們主要關心的是軍事指揮鏈:誰(或什麼)在戰場上發佈這種殺傷命令,或者至少是指揮鏈中的誰"決定如何、何時、何地以及為什麼使用這種武器"?基辛格認為,鑑於基於人工智能的武器系統的發展缺乏透明度(透明度是所有軍備控制的基礎),控制基於人工智能的武器系統,包括法律,也許是不可能的。他的言論意在對基於人工智能的武器系統被允許不受限制地發展可能導致的嚴重後果發出嚴重警告。

二、建議

我們現在正處於一個過渡時期,人工智能已經從潛力走向現實,其巨大的力量已經開始顛覆人類的生存,無論好壞。如果政府希望利用人工智能發揮積極的潛力,並避免人工智能帶來的負面影響,就需要確定社會優先事項,制定可操作的戰略,然後在實際資金支持下實施明智的政策。

(一)倫理規範

道德和規範聲明的創建現在是廣為人知的領域。憤世嫉俗者會辯稱,這些聲明之所以常見,恰恰是因為它們不具約束力,成本很低,對受影響的經濟部門沒有負面影響,並且標誌著良性但往往模糊的制度行動。

但是這裡也有一個令人信服的反駁。當通過制度化、公共環境、道德和規範聲明進行定義時,可以迫使政府闡明它們最重視的價值觀,從而確定它們的最高優先事項。這一過程迫使利益相關者強化他們的論點,並與他人一起協商他們的立場。此外,非約束性流程有助於在更具約束性、因此更困難的決策流程之前,圍繞人工智能目標達成共識。

因此,各國政府應效仿歐盟的做法,建立高級別委員會,由公認和受尊重的主席領導,成員廣泛代表社會,並負責通過嚴格的程序,形成廣為宣傳和傳播的道德和規範聲明。

(二)戰略

說到人工智能,預期治理是至關重要的。儘管人工智能驅動未來的模式還不清楚,但政府還是應該積極面對人工智能帶來的重大的、顛覆性的變革。首先,政府需要發展可操作且可行的策略,在積極的方向上塑造未來,同時避免或最小化人工智能領域中不可避免的負面後果。

綜合戰略應以道德和規範聲明為基礎,以幫助確定戰略目標。理想情況下,人工智能策略不僅會定義政府希望實現的目標,而且還會定義政府不願意容忍的結果。此外,重要的是要從一開始就認識到一些戰略成果會與其他成果相矛盾。政府需要在一方面瞄準創新的前沿,即成為基於人工智能的初創企業和人工智能驅動產業的全球領導者,另一方面應對人工智能的社會治理後果之間取得平衡。

(三)隱私和數據

由於個人數據通常可能會成為人工智能系統的原始材料,所以隱私問題是大多數政策討論的核心。從醫療保健、交通運輸乃至環境保護等領域人工智能所產生的效益往往更加強大。在保護個人權利和最大限度地發揮人工智能為更廣泛的公眾帶來的潛在利益之間取得平衡,是人工智能決策的核心。

(四)創新生態系統和人力資本

世界各國政府都將人工智能的發展視為建立和加強創新生態系統的機會,即促進一國境內的創業和新經濟部門,以獲得隨後的經濟利益。在創建強大的技術創新生態系統的過程中,存在多種政策關聯。包括研發支出、知識產權保護、基礎設施投資、稅收政策、住房政策等等。這種政策上的相互聯繫對於刺激人工智能相關的創新和其他新興技術相關的創新同樣重要。

(五)致命自主武器系統

吉爾·普拉特(Gill Pratt),一位前美國國防高級研究計劃局(DARPA)的機器人專家,在2015年一篇被廣泛引用的論文中指出,機器學習、計算能力、數據和能量存儲系統以及傳感器的進步將在人工智能機器人領域帶來"寒武紀大爆發",他的意思是"機器人多樣化和適用性的大爆發"。對於世界軍隊來說,人工智能系統的這種進步是不可抗拒的。人工智能領域產生的,運輸、供應、後勤、監視以及作戰能力方面的進步,遠遠超過當今任何軍隊所擁有的。

這就是困境的癥結所在。在一個對自主武器系統沒有任何約束性和可執行性條約的情況下,各國認為他們別無選擇,只能大力發展此類系統。正如哈佛大學肯尼迪學院2017年關於人工智能軍事用途的研究報告的作者所言,由於機器優越的作戰能力,各州"將面臨越來越大的誘惑,要麼授予機器更高級別的權力,要麼面臨失敗"。

各國投資技術開發以確保自身安全。正如計算機、全球定位系統技術、衛星和許多其他技術一樣,世界各國軍方正投入鉅額資金用於人工智能開發,因為他們擔心在這一關鍵技術上落後於競爭對手。事實上,美國軍方是人工智能研究的全球最大資助者之一:美國國防部認為,相對於地緣政治對手,美國"必須採用人工智能來維持其戰略地位"。


分享到:


相關文章: