以法治保障人工智慧健康發展

《 人民日報 》( 2018年06月05日 07 版)

當今時代,人工智能日益深刻地影響著人類生活,幫助人類提高工作效率。其中,設計科學的算法、用好大數據資源、不斷提高計算能力是人工智能技術發展的重要支點。然而,技術發展總是與風險相伴,人工智能也可能帶來侵犯個人隱私、衝擊法律與社會倫理等問題。在充分發揮人工智能作用的同時有效防範其風險,需要運用法治思維和法治方式,加強對算法設計和數據運用的監督管理,推動人工智能行業健康成長,更好為經濟社會發展服務。

對算法設計進行監管。人工智能是人類智慧的延伸,算法設計也不是純粹的技術問題。所有算法都是為完成特定任務、實現特定目的而設計的,特定任務、特定目的的實現路徑往往蘊含著設計者的價值觀。而設計者的價值觀又會影響其設計的技術方案,這就可能在技術運用中產生所謂的算法歧視。比如,某網絡公司推出的廣告服務中,男性用戶能夠比女性用戶看到更多高薪招聘廣告。即使算法設計者沒有給算法植入歧視的意圖,但有時仍然會出現某種歧視效果。因此,編制算法應當遵循一定的法律規則和行業規則,以合理控制路徑選擇,使其符合社會基本倫理規範。

對算法設計進行監管,可以採用專業監督和社會監督等手段。專業監督就是對算法設計制定具有可操作性的技術和行業規範,讓設計者在進行設計之前就受到有效制約。還可以請同行專家進行監督。同行專家比較容易洞悉設計者的理念,能夠了解具體的操作程序。通過同行專家的評價和信息披露,可以對設計者設計出來的算法進行比較有效的事後規制。社會監督就是要求設計者將其算法設計的基本情況進行登記或備案,並且這種登記或備案信息可供社會公眾查詢,形成社會公眾評判,從而進行道德和輿論上的制約。通過專業監督和社會監督,可以更好地防範人工智能算法設計偏離社會基本倫理規範。

對數據運用進行監管。數據的獲得和利用方式是法律關注的問題。當用戶流連於網絡、享受人工智能設備帶來的便利時,其個人信息安全可能正面臨風險。例如,人們使用智能設備,往往要同意所謂的註冊協議、服務協議,這些協議通常會要求用戶“自願”提供個人基本信息。企業在獲得用戶形式上的授權後,服務過程中涉及的個人數據就會按照約定通過網絡傳送給企業。比如,可以上傳用戶的位置、興趣、需求、使用習慣等信息。獲得這些數據的企業,可以據此形成消費者分析報告,針對用戶的年齡、居住區域、消費習慣差異等,準確把握用戶偏好,進行精準的市場投放。因此,數據運用可以給企業帶來巨大利益。

由於互聯網海量存儲和快速傳播的特點,獲取、存儲和利用個人信息的主體和環節眾多,其中往往存在侵犯用戶隱私安全和濫用數據的風險。面對這些風險,法律應當確立相應規範,對企業使用個人信息進行限制,使得對個人信息的保護更為詳實、充分。例如,允許智能設備出於便捷服務的需要收集個人信息,但不能要求用戶作出概括性授權。企業應以正當的、法定的、特定的目的,在特定範圍內收集個人信息,並用於特定用途,而不能隨意超越用戶對其個人信息收集、使用的授權範圍。應禁止企業向用戶收集與服務無關的信息。服務提供商違反個人信息保護義務的,應當依法承擔法律責任。總之,面對人工智能領域可能出現的風險,我們應認真研究思考並作出法律上的應對,為新技術發展設計好法治框架,讓人工智能更好地造福人類。

(作者單位:首都師範大學政法學院:吳高臣)


分享到:


相關文章: