構建公開透明人工智慧全過程監管體系

人工智能技術的發展被稱為第四次工業革命,是一個融合計算機科學、統計學、腦神經學和社會科學的前沿綜合學科,可以代替人類實現某種識別、認知、分析和決策等功能,已經成為當今世界各國一爭高下的重要場域。

不過,到目前為止,人工智能並沒有確切的定義,有人推測人工智能的發展遠景將經歷三個階段:一是弱人工智能階段;二是強人工智能階段;三是超人工智能階段。筆者認為,目前所有的人工智能技術尚屬於弱人工智能階段。

人工智能面臨的倫理與法律問題

已故著名物理學家、劍橋大學教授史蒂芬·霍金在世時曾警告:在我的一生中,見證了許多社會深刻變化,其中最深刻的,同時也是對人類影響與日俱增的變化,就是人工智能的崛起。霍金認為人工智能的發展,本身是一種存在著問題的趨勢,而這些問題必須在現在和將來得到解決。

筆者認為,人工智能在其發展進程中面臨的最大問題不是技術本身,而是倫理和法律問題。2017年6月,由聯合國國際電信聯盟主辦的主題為“人工智能造福人類”的全球峰會在日內瓦召開。這次峰會聚焦了人工智能的兩大國際性問題:一是加速人工智能的研發和應用,以應對貧困、飢餓、健康、教育和環境保護等全球性挑戰;二是探討如何確保人工智能的安全性並符合倫理規範,防止其帶來意想不到的後果。

2016年,標準制定組織IEEE發佈了首份人工智能報告(2016),其名稱為:“利用人工智能和自主系統(AI/AS)最大化人類福祉的願景”。該報告提出了一個發展人工智能的一般性原則,主要涉及的是高層次倫理問題,報告認為,人工智能發展的一般性原則將適用於所有類型的人工智能和自主系統。在確定一般原則時,主要考慮三大因素:一是體現人權;二是優先考慮最大化對人類和自然環境的好處;三是削弱人工智能的風險和負面影響。

原則之一:人類利益原則。人類利益原則要求考慮,如何確保人工智能和自主系統不侵犯人權。為了實現人工智能和自主系統尊重人權、自由、人類尊嚴及文化多樣性,在使用年限內是安全、可靠的,一旦造成損害必須能夠找出根本原因(可追溯性)等目的,應當構建治理框架,包括標準化機構和監管機構,增進公眾對人工智能和自主系統的信任。

原則之二:責任原則。責任原則涉及如何確保人工智能和自主系統是可以被問責的。為了解決過錯問題,避免公眾困惑,人工智能系統必須在程序層面具有可責性,證明其為什麼以特定方式運作。

首先,立法機構/法院應當闡明人工智能系統開發和部署過程中的職責、過錯、責任、可追責性等問題,以便於製造商和使用者可以知曉其權利和義務分別是什麼;其次,人工智能設計者和開發者在必要時考慮使用群體的文化規範的多樣性;再次,當人工智能及其影響遊離於既有規範之外時,利益相關方應當一起制定新的規範;第四,自主系統的生產商/使用者應當創建記錄系統,記錄核心參數。

原則之三:透明性原則。透明性原則意味著,自主系統的運作必須是透明的,人們能夠發現其如何以及為何作出特定決定。人工智能的不透明性,加上人工智能開發的去中心化模式,加重了責任確定和責任分配的難度。透明性對每個利益相關方都意義重大:第一,對使用者,透明性可以增進信任,讓其知道人工智能系統可以做什麼及其這樣做的原因;第二,對人工智能和自主系統批准和認證機構,透明性能確保人工智能系統可以接受審查;第三,如果發生事故,透明性有助於事故調查人員查明事故原因;第四,事故發生之後,參與審判的法官、陪審團、律師、專家證人需要藉助透明性來提交證據,作出決定;第五,對於自動駕駛汽車等顛覆性技術,一定程度的透明性有助於增強公眾對技術的信心。

原則之四:教育和意識原則。教育和意識原則涉及如何擴大人工智能和自主系統技術的好處,最小化其被濫用的風險。在人工智能和自主系統越來越普及的時代,需要推進倫理教育和安全意識教育,讓人們警惕人工智能和自主系統被濫用的潛在風險。這些風險可能包括黑客攻擊、賭博、操縱、剝削等。

2018年7月,中國發展研究基金會在其發佈的一份《未來基石——人工智能的社會角色與倫理》的報告中也指出,儘管有少數哲學和社科領域的學者開始關注人工智能帶來的倫理問題和社會挑戰,但是這些討論並未進入公共政策視界,而且討論的重點也多集中在超級人工智能這樣仍相對遙遠的議題上。該報告認為,在人工智能問題上,圍繞可能出現的挑戰,無知、忽視、偏狹、誤解交織在一起,可能會導致真正的風險。該報告建議:在社會層面,高校和研究機構開展前瞻性的科技倫理研究,為相關規範和制度的建立提供理論支撐;各國政府、產業界、研究人員、民間組織和其他利益攸關方展開廣泛對話和持續合作,通過一套切實可行的指導原則,鼓勵發展以人為本的人工智能;人工智能企業應該將倫理考量納入企業社會責任框架中。

事實上,人工智能和自主系統帶來了許多複雜的倫理問題,這些倫理問題往往直接轉化為具體的法律挑戰,或是引發複雜的連帶法律問題。每個倫理問題一般都涉及相關法律問題。筆者認為,當前的人工智能本質上是一種建立在大數據基礎上的自我學習、判斷和決策的算法,算法的核心是基於網絡的編程技術,但這種編程技術絕非中立,人工智能的算法決策具有典型的“黑箱”特點,這應當引起現代法律人的高度警惕,進行深入研究,應當從倫理學和法律融合的角度深入審視和研究人工智能的算法。筆者呼籲,人工智能的算法必須確立法律的可追溯性原則,人工智能的行為決策全程應當處於法律監管之下。

構建公開透明的人工智能全過程監管體系

我國應當建立健全公開透明的人工智能監管體系,重點在人工智能的設計問責和應用監督並重的雙層監管結構上做充分的準備,實現對人工智能算法設計、產品開發和成果應用等的全過程監管。促進人工智能行業和企業自律,切實加強人工智能協同一體化的管理體系,加大對人工智能領域數據濫用、算法陷阱、侵犯個人隱私、違背道德倫理等行為的懲戒力度。

在人工智能技術研發的同時,要加強人工智能相關法律、倫理和社會問題的同步研究,尤其要關注人工智能模仿人類傳播錯誤信息或將商業無人機轉化為目標武器攻擊人類,建立和優化保障人工智能健康發展的法律法規和倫理道德框架。法律研究領域要開展與人工智能應用相關的民事與刑事責任確認、隱私和產權保護、機器倫理與破壞力評價等倫理與法律問題的交叉研究,建立人工智能的可追溯和問責制度,明確人工智能的設計者、控制者、使用者等相關法律主體的權利、義務和責任。

關於人工智能監管的原則,科幻作家艾薩夫·阿西莫夫於1942年提出的“機器人學三律”仍具有參照價值,非常值得借鑑:

第一定律:機器人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手不管;

第二定律:機器人必須服從人給予它的命令,當該命令與第一定律衝突時例外;

第三定律:機器人在不違反第一、第二定律的情況下要儘可能保護自己的生存。

筆者建議,國家有關部門或行業組織應當制定人工智能產品研發設計人員的道德規範和行為守則,加強對人工智能潛在危害與收益的評估,構建人工智能複雜場景下突發事件的解決方案。同時,我國應當積極參與人工智能的全球治理,加強機器人異化和安全監管等人工智能重大國際共性問題研究,深化在人工智能法律法規、國際規則等方面的國際合作,構建我國人工智能領域的國際制度性話語權。


分享到:


相關文章: