07.10 學術|算法規制如何實現法治公正

李婕人工智能,本質上是一種建立在大數據基礎上的自我學習、判斷和決策的算法,運用於司法實踐,其在類案類判、智慧檢務建設等司法系統“技術革命”方面發揮著重要作用。在國外,美國還將算法模型應用到量刑、保釋、假釋等決策中,引發社會廣泛關注。例如,在康斯威星州Statev.Loomis案件中,被告認為州法院使用Compas算法模型量刑違反了正當程序原則,其決策的準確性、透明性都有待檢討,遂向州最高法院提出上訴。在科技革命撲面而來的當下,人工智能技術在法律檢索、風險評估等法治進程中的應用需要認真對待。

美麗的誤解:算法默認是公平的

建立在算法模型基礎上的人工智能給社會生活帶來巨大便利,如網絡約車、區塊鏈、互聯網金融等,促進了社會進步,但其潛在的弊端不容忽視。2016年,哈佛大學肯尼迪學院發佈的分析報告指出,目前針對犯罪傾向性預測的人工智能系統,無論技術人員如何調整機器學習的策略和算法,人種和膚色都成為無法抹去的高優先識別變量。那麼,看似技術中立的算法為什麼會產生歧視?

算法,本質是互聯網的編程技術,但這種編程技術絕非中立,仍然存在科技錯誤轉變成傷害,進而導致社會不安與仇恨的現象。其實,算法歧視在很多情況下是難以預料的、無意識的副產品,而非編程人員的有意選擇,更增加了識別問題根源或者解決問題的難度。

算法歧視是如何出現的?首先,算法結果建立在其所使用的基礎數據之上,基礎數據的不完善將直接影響算法輸出的科學性。數據本應是社會現實的反映,但如果編程數據本身不正確、不完整或過時,輸出的結果則會以偏概全。比如,限於目前的裁判文書上網情況,各地關於類案類判制度的試點也存在“數據孤島”等“先天不足”,這不可避免地將導致算法輸出的結果缺乏公平性。其次,算法的設計、目的、成功標準、數據使用體現了設計者、開發者的主觀選擇,他們可能將自己的偏見嵌入算法系統,這導致算法繼承了人類決策者的種種偏見。再次,算法決策是在用過去預測未來,而過去的歧視可能會在算法中得到鞏固並在未來得到加強,因為錯誤的輸入形成的錯誤輸出作為反饋,將進一步加深錯誤。最後,算法決策不僅會將過去的歧視做法代碼化,而且會創造自己的現實,形成一個“自我實現的歧視性反饋循環”。

算法歧視的治理難點

人工智能的算法決策具有典型的“黑箱”特點,連設計者可能都不知道算法如何決策,要在系統中發現有沒有存在歧視和歧視根源,在技術上非常困難。如果按照現有的法律責任規則,由於系統的自主學習、決策能力很強,它的開發者無法預測最終將輸出什麼結果,那麼“黑箱”的存在難以查找事故原因,將不可避免地產生責任鴻溝。除了如何通過設計確保算法和人工智能系統的公平性外,算法的治理難點還有以下方面:

首先,法律工具主義思維盛行。工具主義是指將各種科技成果視為解決人類問題、增強人類能力的工具,其在法律領域是實用主義法律觀的體現。電腦量刑、類案類判輸出的結果之所以往往為民眾質疑,是因為只講手段不問目的的工具主義割裂了法律和道德的關係,導致輸出結果無法取得社會認同。工具理性取代價值理性的弊端在現代化早期已經暴露無遺了,技術本身並不是目的,也無法自動形成自己的目的。

其次,算法的透明性問題難以公開。算法的輸出是“黑箱”過程,即便人工智能最終的應用出現嚴重後果,算法的過程也可能無從得知。人們無法判斷損害到底如何造成、更不清楚算法本身是如何編寫的。對於掌握先進科技的企業而言,算法往往屬於企業的“商業秘密”,是受到法律保護的“黑箱”。當利用犯罪風險評估軟件對犯罪嫌疑人進行評估時,決定司法判決結果的就不再是規則,而是代碼。而編程人員將既定規則寫進代碼時,不可避免地會對這些規則進行調整,但公眾包括法官並不知曉,無從審查嵌入到自主決策系統中的規則的透明性、可責性以及準確性。在缺乏必要的問責機制的情況下,無法矯正的算法歧視對司法是一種潛在的危害。

最後,運用法律規制算法歧視在操作層面還需考慮以下方面:第一,公平被量化為計算問題會帶來風險嗎?第二,如果公平是機器學習和人工智能的目標,誰來決定公平的考量因素?第三,如何讓算法、機器學習、人工智能具有公平理念,自主意識到數據挖掘和處理中的歧視問題?

通向公正的算法規制

法律只有能夠以直觀、明確的方式對人工智能的決策進行追蹤,才能夠保證人工智能在合法軌道上運行。如果算法繼續保持神秘並且掌握人工智能技術的企業的重心始終圍繞利潤而非公正與平等,那麼,人工智能將很難取得公眾對其在司法應用中的充分信任。發展人工智能可以促進社會進步,但是法治公正需要考慮技術革新和權力結構變化所帶來的新問題。2016年,英國下議院科學和技術委員會發布《機器人與人工智能》,特別強調決策系統透明化對於人工智能安全和管控的作用。世界科學知識與技術倫理委員會也發佈關於機器人倫理的初步草案報告,提出應當在機器人及機器人技術的倫理與法律監管中確立可追溯性,保證機器人的行為及決策全程處於監管之下。

首先,對人工智能的法律治理中,必須確立可追溯性原則,讓機器人行為決策全程處於監管之下。如此一來,人類的監管機構不僅能夠理解智能機器人的思考決策過程以及作出必要的修正,而且能夠在特定的調查和法律行動中發揮其本應有的作用。只有保證人類能夠全面追蹤機器人思考及決策的過程,我們才有可能在監管機器人的過程中佔據主動權或者事後進行全面的追蹤調查。

其次,立法應將透明、公開、程序合法、說明理由等義務賦予人工智能研發機構,使算法等技術化的監控和決策手段不再是無法被問責的“黑箱”。同時構建技術公平行業規範,通過設計保障公平的實現,通過技術正當程序來加強自主決策系統中的透明性、可責性以及被寫進代碼中的規則的準確性。例如,谷歌大腦團隊公佈了“可解釋性的基礎構件”的研究成果,將算法比喻成“人工神經網絡的核磁共振成像”,這種開源化處理使得其他技術人員能夠在此基礎上編寫適用於不同算法和場景的解釋性算法。

最後,需要加強法律和技術的融合發展,確保法律人員能夠理解、掌握算法的原理和應用。法律規制算法不能僅依靠立法者和規制者的單方面努力,而需要法律人與技術人員的合作。通過法律人向技術人員解釋法律規則的要求,技術人員根據要求設計出符合法律要求的算法——法律技術工程師這一職業正在悄然興起。

人工智能方興未艾之際,法律應正視並矯正算法歧視,促進人工智能健康、合法地發展。大數據、算法以及人工智能的應用與人的命運息息相關,但大數據資源被壟斷掌握、算法歧視不透明將導致普遍的社會不公正。人工智能的法治之路必須體現憲法所保障的公民的基本權利,以及公開、透明等程序性基本要求。法律必須確保算法的可追溯性,賦予人工智能技術研發者程序可解釋性的義務,通過強化法律人員和技術人員的互動融合實現算法公正。

(作者單位:安徽大學法學院)


分享到:


相關文章: