何時才能以法之名,守住人工智能的底線


何時才能以法之名,守住人工智能的底線

人工智能引發的倫理問題,反映的是人類設計、製造、使用和對待人工智能的道德關懷,所關注的是人工智能可能對人類帶來的益處和傷害。總的挑戰是,如何在享受技術進步帶來的好處的同時,能夠對其所帶來的風險作出充分的反應。

在人類技術發展史上,平衡利益和風險的需要總是反覆發生,一再出現的。但是人工智能以一種全新的、潛在的、大規模的形式對人的工作、生活、教育、社會交往等各個方面產生全面影響,甚至影響如何理解和重新定義人本身。同時,人工智能也促使人們思考:是否應該運用這些新技術去追求提升、超越人類的自身條件?

為人工智能建立道德準則和邊界

目前,人工智能從用途上大致可分為兩類:一類是通過預先設定的程序由自上而下的算法控制的機器人行為;另一類是自下而上的算法,讓機器人從過去的經驗中學習並不斷地修正它的算法,達到自我學習和自我發展的目的。

無人駕駛汽車、人臉識別、模擬人腦的神經網絡模式等,都是後一類人工智能的最新發展。與第一類人工智能需要依賴人類的決策相比,第二類人工智能的發展不依賴於人類設置的程序、控制和干預。因而,從理論上說,此類人工智能的發展將難以被預測和控制。

人工智能技術在很多領域的應用有益於人類社會。但過去兩年間的實踐明顯地表明,人工智能的發展可能會有許多意想不到的後果,更不用說可能被用於反人類的目的。

人工智能被濫用或者失去控制,無疑與人工智能服務於人類的目標背道而馳,不僅為人類未來命運帶來不確定性,也增大了安全隱憂。因此,為人工智能建立道德準則和邊界是引起業界和學界廣為關注和討論的熱點問題。

宣言和倡議中的人工智能倫理原則

近兩年來,全球發佈了數量可觀的關於人工智能倫理原則的宣言和倡議。其中,普遍認可的原則包括透明度、平等(非歧視)、責任、安全、隱私等內容。


何時才能以法之名,守住人工智能的底線

因為人工智能技術如此深刻地對人類產生影響,人工智能的研發人員應該負有道德義務向公眾保持一定的透明度。儘管有人擔心,將人工智能釋放給公眾可能有害,但美國電氣和電子工程師協會(Institute of Electrical and Electronics Engineers,簡稱IEEE)致力於在多個層面為用戶提供開放資源和透明度服務。2019年6月26日,歐盟人工智能高水平專家組公佈的《值得信任的人工智能政策和投資建議》,認為歐盟國家人工智能研究競爭力來自於保持開放、透明度和創新。

伴隨著真實社會中的偏見和不平等,算法偏見被算法操作者植入人工智能系統中。在人臉識別、聲音識別等系統中,隨處可見算法偏見。隨著機器學習技術擴展到醫學和法律等關鍵領域,機器學習中的偏見問題可能會變得更加嚴重。鑑於這種情況,谷歌、IBM等大公司在自己的人工智能原則中將公平作為重要原則,並開始在實踐中搜尋和定位算法偏見。

安全與責任是人工智能發展的核心原則。與之相關聯的原則包括可靠性、控制性等。人工智能不能對人造成傷害,這是基本的、也是終極的原則。雖然人類尚不能預見人工智能超出人類控制的情形,但在理論上存在這樣的可能性。因此,人工智能的研發終究要以安全為本位。

2019年5月,《人工智能北京共識》(以下簡稱《北京共識》)發佈15條原則,從研發、使用、治理三方面規範人工智能。

在研發方面,《北京共識》提倡要有益於增進社會與生態的福祉,服從人類的整體利益,設計上要合乎倫理,體現多樣性與包容性,儘可能地惠及更多人,對潛在倫理風險與隱患負責,提升技術水平控制風險,共享人工智能發展成果。在使用方面,提倡要善用和慎用,避免誤用和濫用,以最大化人工智能技術帶來的益處、最小化其風險,確保利益相關者對其權益所受影響有充分的知情與同意,並能夠通過教育與培訓適應人工智能發展帶來的變化。在治理方面,對人工智能部分替代人類工作保持包容和謹慎態度,鼓勵探索更能發揮人類優勢和特點的新工作,開展國際合作,共享人工智能治理經驗。人工智能的準則與治理措施應做到適應和適度,並開展長遠戰略設計,以確保未來人工智能始終保持沿著對社會有益的方向發展。

除《北京共識》外,有的倡議從更為抽象的層面表達人工智能的倫理原則,還有倡議認為,人工智能的最高原則是安全可控;其創新願景是促進人類更加平等地獲得技術能力;人工智能存在的價值是教人學習,讓人成長,而不是取代人,超越人;人工智能的終極理想是為人類帶來更多的自由和可能。

就具體公司而言,英特爾公司的人工智能原則包含了促進創新和開放發展,創造新的人類開發機會和保護人的福祉的理念;谷歌的人工智能原則表明人工智能要有利於社會。

規範人工智能目前主要依賴行業自律

以上全球人工智能倫理原則各有側重,不盡相同,但又有共同的特點。根據算法觀察的統計分析,關於人工智能倫理原則的文件大多是在2018年和2019年發表的。可見,人工智能倫理是近兩年引起全球高度關注的問題。且許多倡議的發起者多為技術界、學界聯盟或機構,大多采取聲明的形式,屬於行業自律性質。

法律試圖規範人工智能的願景至今還沒有成功的跡象。目前主導人工智能倫理原則和準則的仍然是技術界。臉書的行政總裁馬克·扎克伯格曾在美國國會就減少網絡仇恨言論作證時宣稱,臉書將承擔更廣泛的責任,制定前瞻性的針對內容的政策。

其中,人工智能的使用是這一模式的基石。這一聲稱引發了人工智能侷限性的爭議,諸如提前刪除內容缺乏透明度、算法歧視、仇恨言論涉及價值判斷,以及如何應用人工智能的倫理原則和規範等。然而,國會議員對其沒有足夠的理解,以至於不能對扎克伯格的人工智能技術提出有效反對。挑戰不熟悉的事情幾乎是不可能的,這也是臉書不再等待最高法院而是自己決定人工智能應用規則的原因。


何時才能以法之名,守住人工智能的底線

然而,目前的人工智能倫理原則缺乏內部執行或治理機制。倫理原則僅是宣言式的倡議或承諾,缺乏具體程序和規則。當企業和其他組織承諾遵守道德準則,而不建立任何治理機制時,我們當然有理由認為,它們只是在做做樣子。在技術樂觀主義和巨大現實利益的裹挾下,未來人工智能領域,法律的作用會非常重要。

(作者系哈爾濱工程大學人文社會科學學院副教授丁瑋)


分享到:


相關文章: