《 AI Now Report 2018 》:避免 AI 淪為惡魔,問責制度迫在眉睫

雷鋒網 AI 科技評論按:2018 年圍繞著人工智能的一連串技術醜聞的核心只有一個:問責制。當 AI 系統對我們的身體造成傷害時,誰應該為此負起責任?我們應該如何定義這些危害,一旦傷害造成後又該如何進行補救?假設想對此進行干預,干預的重點應該是什麼?我們還需要哪些額外的研究和監管活動來保證干預效果?目前看來,這些問題都沒有完善的答案,當下存在的人工智能管理框架也不足以支撐問責制的執行。然而隨著系統的普遍性、複雜性和規模的逐漸增長,缺乏有意義的問責和監督機制(包括責任、擔當和正當程序的基本保障)已經成為一項日益緊迫的問題。

在 2016 年和 2017 年的報告基礎上,AI Now 研究所試圖通過《AI Now 2018》來回應這一核心問題,並據此提出幾個解決問題的提議。(完整版文件可通過 https://ai.yanxishe.com/page/resourceDetail/660下載)對於每個提議他們都會總結出最新的挑戰與研究,並就 AI 技術的開發、部署與監管情況提供改進建議。他們的建議基於嚴謹的學術研究、可操作性較強,能夠幫助政策決策者、群眾以及技術人員更好地理解並減輕可能出現的風險。由於 AI Now 研究所身處美國,過去專注的研究區域也是美國,再加上世界最大的幾家人工智能公司都位於美國,因此報告會優先關注美國本土的情況。

人工智能領域現有的問題

人工智能領域的問責缺位問題日益突出2018 年發生的幾條技術醜聞表明,那些從人工智能發展中受益的人,與那些最有可能承受人工智能發展惡果的人,兩者之間的隔閡正在進一步擴大。造成這種結果的原因很多,其中包括政府監管不到位、社會對人工智能的莫名狂熱、公司的治理制度存在缺陷、企業與用戶之間的權力不對稱、負責技術研究的工程小組與負責 AI 系統部署的群體存在文化差異。這些分歧迫使人們更加重視偏見、歧視、正當程序、責任以及傷害問責制的建設。報告想強調,社會如今迫切需要針對不同行業強而有力的研究與監管。

人工智能被最大限度地用於監視活動:人工智能在美國、中國和許多國家被廣泛用於監視活動,這點從傳感器網絡、社交媒體跟蹤、面部識別和情感識別等技術的使用和普及程度上可以看出。這點變化不僅威脅個人隱私,同時加速了監控自動化的進程,進而導致人們被監控範圍和頻次的擴大。這帶來了新的危險,並放大了許多長期存在的擔憂。揭露欺瞞行為的情感識別技術被頻繁使用,通過對人們臉部的近距離觀察,情感識別技術能夠解讀人們的內心情感,無論是情緒、心理健康水平、參與程度或有無罪都將一覽無遺。需要警惕的是,這種技術在人們不知情的情況下已經被用來進行一些具有歧視性和不道德的活動。面部識別技術同樣不讓人省心,它強化了從刑事司法到教育再到就業等領域各種扭曲和隱性的歧視性做法,並對多個國家的人權與公民自由形成了威脅。

在未保障公民權利的情況下,政府頻繁使用那些會對個人和社區造成影響的自動化決策系統:許多國家的政府機構基於提升效率和節省成本的目的,對自動決策系統 (ADS) 進行採購和部署。問題是這些決策系統好多都未經過嚴格檢驗,功能設計上也不一定完美匹配目標任務,由此導致了對個人權利的非法侵犯。更糟糕的是,當他們做出錯誤和不好的決定時,我們想質疑、爭辯、糾正這些錯誤往往會面臨困難。據瞭解,一些機構正試圖提供更加符合透明、正當程序和保障基本權利的系統,可類似貿易保密這樣的法律又會對系統的審查與測試形成阻礙。無論是機構的積極努力還是近期可見的一些戰略訴訟,報告提煉並概述了可以形成系統問責制的有效途徑。

各種缺乏管制和監控、基於人口的人工智能實驗:硅谷以其「快速行動,打破現狀」的理念聞名世界,在這種理念的影響下,許多當地企業被迫快速試驗新技術,而不怎麼重視類似誰承擔風險這種實驗失敗後的問責制度的建設。過去一年裡,AI Now 研究所見到越來越多在公共場所部署的人工智能實驗,卻未曾見實驗方提供任何的通知、同意或問責協議。由於這些實驗尚未大範圍出現問題,AI Now 研究所發現好大一部分實驗還在繼續進行。可一旦事故發生時,我們往往不清楚責任該由哪個單位/個人承擔。因此,主體責任的界定、事故發生時如何追責仍然是一項優先級較高的任務。

技術解決公平、偏見與歧視問題時侷限性:為避免機器做出具有歧視性的決定,人們做了許多工作,其中包括為機器設計「公平」的數學算法模型。如果模型缺乏充分考慮社會、政治與歷史背景因素的算法框架,這些「公平」的數學公式幾乎不可避免地要遺漏幾項關鍵因素,導致忽略深層次的問題,最終造成更嚴重的傷害與更多的不公正。為了確保我們有力解決核心問題——將焦點從平等轉移到公正,我們目前迫切要做的是拓寬研究視角,將研究範圍擴大至人工智能的公平性與偏見等問題,而不要侷限於數學領域。

對倫理原則的遵守與落實:為了回應人們對人工智能社會影響力日益增長的擔憂,今年出現了許多創建和部署人工智能技術的倫理原則和指導方針。然而研究表明,如果道德承諾不與責任制度還有工作場合的實踐直接產生聯繫,它們對軟件開發領域的影響幾乎是微乎其微。此外,這些規範和準則往往很少得到執行、監督或偏差後果的支持。換句話說,只有將倫理準則融入到人工智能的發展過程中,同時得到對公眾利益負責的執行機制的支持,才能有助於人工智能問責制度的建設與發展。

報告接下來的內容將詳細闡述這些課題,除了反映最新的學術研究成果外,還會介紹 7 項富有建設性的改進策略:

  • 將人工智能的公平性研究從數學等價性和統計公平性問題擴展至公平性問題。

  • 研究與跟蹤創建人工智能所需的基礎設施,其中包括材料供應鏈的核算。

  • 仔細說明創建與維護人工智能系統所需的勞動形式。

  • 致力於推動人工智能更深層次的跨學科研究。

  • 分析在人工智能領域出現的種族、性別與權力課題。

  • 制定新的干預政策與訴訟戰略。

  • 在研究人員、公民與科技領域組織者之間建立合作聯盟。

這些策略旨在積極重塑人工智能領域,以解決目前日益加劇的權力不平衡,這種權力不平衡導致那些開發人工智能系統並從中獲利的人持續獲得受益,從而犧牲了那些承受人工智能發展惡果的人群。

《 AI Now Report 2018 》的 10 條建議

  1. 政府需要擴大特定部門機構的權力來監管、審計和監控特定領域的技術,以便更好對人工智能技術進行監管。

  2. 我們需要通過嚴格的法規對人臉識別與情感識別的使用進行監管,以保護公眾的利益。

  3. 人工智能領域迫切需要新的治理方法,正如這份報告所示,大多科技公司的內部治理結構尚未能很好地對人工智能系統產生的結果進行問責。

  4. 人工智能公司應該為了公眾利益放棄那些妨礙進行問責的商業秘密與法律主張。

  5. 技術公司應該為良心拒服兵役者、員工組織以及道德檢舉者提供必要的保護。

  6. 消費者權益機構應該對人工智能產品與服務實施「廣告真實」法。

  7. 人工智能公司需要超越「流水線模式」,致力於解決工作場所出現的排擠與歧視行為。

  8. 我們需要對人工智能系統「全棧供應鏈」進行詳細梳理,以保障公平性、問責制與透明度在人工智能領域的落實。

  9. 我們需要意識到在人工智能問責制度的建設問題中,訴訟、勞工組織以及社區需要更多來自資金和其他方面的支持。

  10. 大學裡的人工智能項目應該將研究視野擴大至計算機科學與工程學科以外的內容。

via:《AI Now Report 2018》,AI Now Institute(https://ainowinstitute.org/AI_Now_2018_Report.pdf)

雷鋒網 AI 科技評論 雷鋒網


分享到:


相關文章: