我們的AI技術有道德標準可言嗎?

大約從五年前開始,每個人都在談論物聯網(IoT)以及它將如何經由數億臺裝置互連來改變一切。我們似乎週而復始地經歷一項新技術被大肆宣傳的循環,如今輪到人工智能(AI)了。

在我大約33年來的電子產業與半導體職業生涯中,我看到了技術革命的三大變化。首先是微處理器時代,然後是互聯網,接著是行動時代。而今,就像新思科技(Synopsys)共同首席執行官Aart de Geus最近所說的:“現在是AI時代!”他並在日前的一場活動中提到,AI將推動半導體產業在未來幾十年的發展,因為大數據(big data)需要機器學習,而機器學習需要更多運算,這些都將產生更多的數據。

的確,AI如今正處於市調公司Gartner所謂“炒作期”(hype cycle)的上升階段,但它似乎又不同於之前引進新技術的情況:我從未見過一項技術引發這麼多關於倫理道德的爭辯。AI將會改變許多事情,自動駕駛車、軍用和工業無人機、機器人,以及在醫療、政府和城市功能等領域的其他許多應用都可能受到影響。

我们的AI技术有道德标准可言吗?

2017年版Gartner新技術成熟度曲線

英國政府日前發佈了一份長達183頁的《英國AI發展現況調查》(AI in the UK: ready, willing and able?)報告,涵蓋許多有關AI系統的責任、監管與倫理道德等議題,以及在AI研究與商業化應用方面的創新、投資與技巧等其他主題。

英國上議院特別委員會主席Lord Clement-Jones說:“英國有著領先的AI公司、充滿活力的學術研究文化、活躍的創業生態系統,以及大量的法律、道德、金融和語言優勢。我們應該充份利用這樣的環境優勢,但關鍵在於必須以道德準則作為發展AI的關注重點。”

Jones說:“AI並非沒有風險,委員會提出的道德原則將有助於減輕這些風險。道德方法確保大眾相信這項技術並且看到使用它的好處,同時也使其準備好質疑技術是否遭到濫用。我們要確保這個國家仍然是研究和開發這項新技術的前哨站。不過,新創公司可能很難自行擴大規模。”

在該委員會的報告中,許多建議均指出AI需要透明化。當AI被用來做出重大或敏感的決策時,應該建立一個自發性機制來告知消費者。該報告並指出,當AI系統故障或對用戶造成傷害時,現行法律是否足以明確相關責任,目前並不清楚,因此,該領域亟需儘快明確責任歸屬。

讓AI透明化

AI系統能夠透明且易於理解嗎?是否存在一定的技術透明度,讓人們能針對系統為什麼作出某一項特定決定提出質疑?

業界對此以及AI系統的問責制都有詳細討論。在許多深度學習系統中,透過許多不同的處理層饋送信息並得出最終解答或決定,可能會讓系統看起來像“黑盒子”,即使是其開發人員也不一定都能夠確定哪些因素導致系統決定其中一項比另一項更重要。

輝達(Nvidia)歐洲、中東、非洲(EMEA)解決方案架構和工程團隊總監Timothy Lanfear提出了另一種看法。他說,機器學習算法通常比傳統的軟件編碼更短、更簡單,因此在某些方面也更容易理解與偵測。“我們每天都在使用那些複雜到無法吸收的系統。AI並沒什麼不同。它也處於一種無法完全理解的複雜程度。然而,你唯一能做的是把它分解成片段,找到測試它的方法,然後檢查它是否按你期望的方式進行,如果不是的話,就採取行動。”

該委員會坦承,要達到技術上的完全透明化相當困難,對於某些AI系統來說甚至是不可能的,特別是在某些情況下甚至並不適用。然而,在一些安全關鍵的場景中,技術必須是透明的。在這些領域的監管機構必須有權強制使用更透明的AI技術。

英國AI委員會在其報告中還提到,“我們認為部署任何可能對個人生活造成潛在影響的AI系統都是不被接受的,除非它能對自己所做的決定提出充份且令人滿意的解釋。例如對於像深度神經網絡(DNN)等無法為其決定產生完全解釋的情況,可能意味著必須延遲某些特定用途的部署,直到找到替代解決方案。”

致力於開發全堆棧自動駕駛車功能的英國自駕車新創公司FiveAI首席執行官Stan Boland並不認同該報告中提出AI系統存在的黑盒子現象。他說:“我們的系統是完全模塊化的,這對於解釋和除錯系統以提升技術和服務來說非常關鍵。任何系統在實際上路之前都必須經過多次獨立驗證。”

他補充說,全世界採用自動駕駛的方各不相同,“例如,在英國倫敦(London)和美國山景城(Mountain View)就有不同的運作方式。每個城市由於生活方式和環境條件不同,自動駕駛系統的模式也各異其趣。對我們來說,重點在於打造出符合歐洲客戶需求的解決方案。”

各國加碼投資AI

英國政府的這份報告也為全球的AI研發提供另一個視角。根據高盛(Goldman Sachs)的數據顯示,在2012年第1季到2016年第2季之間,美國對於AI的投資達到了182億美元,中國大陸和英國分別是26億美元和8.5億美元。隨著中國大陸致力於成為AI的全球領導者,預計到2030年,在其發展AI生態系統方面的投資將上看1,500億美元。

有鑑於現有資源的差異性,英國在AI領域的投入規模可能比不上中、美。德國和加拿大則有更多的比較性。德國的AI策略受其打造旗艦級工業4.0策略影響頗深。其策略探索以AI提升智能製造的過程,併產出整合AI功能的智能商品,例如冰箱和汽車。而加拿大的AI策略則較不專注於為特定領域開發AI,但該國政府已經拿出1.25億美元成立了三座新的AI研究所,並吸引更多來自全球的AI研究人員。

處理器瓶頸?

過去十年來,儘管深度學習在AI的進展中扮演了重要角色,但它也存在一些問題。深度學習需要大量的數據集,這極難取得且費用昂貴,而且還需要大量的處理能力。該報告中提到,儘管深度學習近來隨著處理能力提高而明顯進步,但摩爾定律(Moore’s law)開始面臨挑戰,處理能力提高帶動降價的腳步開始放緩。諸如量子運算等創新也還無法使其復甦或加速,不過現在還為時尚早,未來還有很多的不確定性。

深度學習先驅Geoff Hinton提出了深度學習革命可能很快結束的警告。其他人的看法則較樂觀,特別是由於各種客制AI芯片的出現,如Google的張量處理器(TPU),以及量子運算的進展,都為深度學習的未來提供了新的發展動能。

犯罪濫用與監管

該報告並深入探索犯罪濫用、監管和創新等領域。在“對抗式AI”(adversarial AI)領域,研究人員有效掌握AI系統如何運作,並試圖瞞過其他AI系統做出錯誤的分類或決定。特別是影像識別系統經證實極易於受到這一類型的攻擊。例如,研究人員可以巧妙地稍加改變圖片或甚至是3D模型或標誌,使其看起來與原始影像毫無區別,但仍瞞過AI系統將它們識別為完全不同的對象。

其他例子還包括利用虛假影像讓車子發生碰撞、突然停止,或觸發自動武器發射等。當然,這些情況也可能發生在非機器學習的系統(人類決策者亦然),不過,使用非機器學習方法可以對所涉及的推論進行詢問、恢復和除錯,而許多機器學習系統則無法做到這些。

在監管方面,該報告指出中國大陸“雖然在技術應用方面的法規不夠完善,但卻從另一方面推動了更快的實驗和創新,包括對於數據的利用和AI技術等方面。”

公司和組織在違反規定時將面臨的責任程度也包括在內。Nvidia的Lanfear說,雖然公司員工知道其道德原則以及如何遵守規定,但他坦承並不容易回答這個問題,因為“作為技術專家,這並不是我的核心思想。”對此,很多人都和Lanfear有同樣的感受。因此,必須找到一些機制以確保目前的道德準則趨勢不只是簡單地轉化為無意義的黑盒子作業。

如今,我們所擁有的AI技術可用於推動下一波基於高端AI處理器與芯片的運算進展。但是,儘管半導體和運算產業不斷挑戰極限,業界最終將會決定該技術在現實世界的應用有多大——我們總是在看到自動駕駛車發生傷亡事件後,才能聽見社會的抗議聲浪。而關於AI道德標準的討論與爭議,將有助於我們思考技術該如何安全且有效地部署,以及最終可被社會接受和採納。

編譯:Susan Hong


分享到:


相關文章: