行業說|爲什麼流行的人工智慧監管策略是錯的?

因為人工智能技術的巨大潛力,以及它可能給人類帶來的深遠影響,現在,不少人都在呼籲,在發展人工智能技術的同時,也要對人工智能技術採取一些監管措施,以此來減小它的負面影響。

行業說|為什麼流行的人工智能監管策略是錯的?

但是,在智庫研究員喬舒亞•紐看來,這些監管措施可能都是錯的。喬舒亞是智庫機構數據創新中心(Center for Data Innovation)的高級政策研究分析師。他分析了以下幾種流行的監管策略。

首先是透明性原則。透明性原則要求人工智能技術公司公開自己的源代碼,以便讓包括監管機構和媒體在內的人可以查看這些代碼,防止損害公共利益的技術。喬舒亞說,以人工智能技術的複雜性,這樣做起到的監督效果不一定好,反而會使得競爭對手更容易偷走這些技術,損害開發者的利益。

其次是可解釋性原則。可解釋性原則指的是,技術開發者需要能夠向終端用戶解釋他們的算法,或者只使用那些能夠解釋清楚決策機制的算法。歐盟就把算法可解釋性作為評估人工智能技術風險的一個主要指標。歐盟的《通用數據保護條例》(GDPR)規定,一個自然人有權獲得關於算法決策機制的“有意義的信息”。

在喬舒亞看來,這項原則雖然看似合理,但很難用在人工智能領域。因為,一個算法越複雜,它的準確性就越高;但是越複雜,也就意味著它越難以解釋清楚。而在一些重要的人工智能技術領域,比如自動駕駛,如果要為了可解釋性犧牲技術的準確性,結果將是災難性的。

最後一個流行的策略是,建立一個類似於食品藥品監督管理局這樣的人工智能監管機構。特斯拉CEO埃隆•馬斯克就是這個策略的支持者。但是,喬舒亞認為,人工智能技術不可一概而論,它的危險性其實主要取決於技術的應用場景。不能僅僅因為某個低風險的產品使用了算法,就對它監管。這樣會限制公司使用人工智能技術的能力和意願。

既然這三種策略都不合理,怎麼做才是合理的呢?喬舒亞提出了一個方法:算法責任原則。根據算法責任原則,公司需要驗證自己的人工智能系統是不是按照設計意圖運行的,能不能防範有害結果。這樣做的好處是,它不要求公司公佈源代碼;不需要解釋算法的決策機制,從而減緩技術進步;而且,它可以把監管責任分散到各行業的監管機構手裡。

大數據處理信息服務商金盛網聚WJFabric認為,未來,“行業協會”的責任將更將重大。除了對行業發展進行前瞻性規劃,為業內企業提供必要幫助與支持,還要加強對從業企業進行引導與監管,以時時斧正其行業行為。人工智能的發展已成為必然,但相應的監管同樣不可懈怠。讓企業的歸企業,市場的歸市場,而協會的還應歸協會,平臺化的協會運作機制將有利於業務相關方的各司其職,以此振興行業發展。


分享到:


相關文章: