06.27 發展負責任的人工智能

發展負責任的人工智能

面對人工智能(AI)可能的風險與受益,我們必須隨著科學研究和技術發展進行動態的倫理考量,逐步建立AI的具體倫理規劃。這不僅需要AI業內人士的積極參與,更需要跨越學科、社會、政治、經濟和國家的界限,開展多方合作,以負責任的方式,讓所有受影響的個體、群體和區域都能參與技術發展過程,最終真正讓技術造福人類。

發端於20世紀中葉的人工智能(Artificial Intelligence,簡稱AI)技術,在經歷了多次跌宕起伏之後,隨著大數據、神經網絡科學的發展,尤其是在深度學習技術的推動下,於近幾年迎來了爆發期,在很大程度上突破了此前所面臨的一系列技術難題。現在的人工智能系統能夠執行20年前計算機不可能完成的各種任務,比如,無人駕駛汽車、刷臉認證、自動翻譯、“創作”詩詞歌曲、為人看病乃至陪護兒童和老人等等,已經影響到人類生產生活的諸多領域,甚至正改變著我們對人的本質的認識。為此,包括美國、英國在內的世界各主要國家都把人工智能作為引領未來的重要戰略性技術,我國也不例外。

然而,AI的快速發展,在為社會提供強大發展動力和平臺的同時,也引發了廣泛爭論。人們擔心AI會讓一大批藍領和下層白領失去工作、挑戰社會公平、給隱私保護和數據安全帶來新問題,更有包括著名物理學家霍金和硅谷巨頭埃隆·馬斯克在內的很多人擔心“超級AI”將來會取代或控制人類,稱AI是人類文明最大的威脅。

實際上,人們對AI目前這種亦喜亦憂的態度並不新鮮。回顧自工業革命以來人類的發展進程,技術一直是人類社會變革的重要驅動力,同時也一直被視作人類社會憂患的來源。技術發展的不確定性和雙刃劍效應讓人類在享受技術帶來便利的同時,也始終伴隨著技術可能失控的風險。AI由於關涉了科技發展與人類生存發展之間辯證關係的根本問題,其成果時常突破人們的日常想象力,所以,在其每一項具體技術進展問世伊始,便在社會上引發了強烈的關注和討論。在科學技術已經成為現代人必備生存條件的今日,因為潛在的風險就棄絕某項技術可能帶來的福祉,顯然不是明智之舉,那麼,我們究竟該如何看待和引導人工智能技術的發展呢?

發展負責任的人工智能

無需過度恐慌AI的發展

當前,AI正以超乎尋常的速度發展,其“智能度”日益提升,在許多領域人類已被機器打敗。當聽到世界圍棋冠軍柯潔哽咽著說“AlphaGo太完美,我很痛苦,看不到任何勝利的希望”時,很多人生髮出將來人類會被AI取代的恐慌。這裡,能夠取代人類的AI是“超級AI”,即,不僅僅是在功能或結構層面模擬人類大腦,更是在能力層面達到或超過人類大腦。

對於“超級AI”是否會實現並取代人類,自20世紀50年代起,人們就一直在爭論。一些激進的哲學家、非AI領域的科學家、科技類企業家,如埃隆·馬斯克、史蒂芬·霍金、比爾·蓋茨等,往往強調AI所帶來的各種不確定性及其對人類的威脅:而人工智能專家則對此持懷疑或批評態度,如通用人工智能學會主席本·戈策爾(Ben Goertzel)便強調超級AI是“向善”的;此外,政策制定者也往往將AI與人類的關係視為協作性的、互惠性的。

我們應該看到,相比人類,當前AI在大多數層面依然有著巨大差距。計算能力的快速提升並不意味著AI在“智力”層面也能得到相應程度的提高。比如,一個兩歲大的嬰兒便能夠在很短的時間內確認一個貓的形象,而谷歌大腦則必須使用16000個CPU,並利用1000萬張來自優兔網站的圖片進行訓練。AI的優勢在於大數據處理能力、數據存儲能力、訓練速度、處理速度的快速增長等,但相比於社會化的人類,當前AI能力極為有限。我們可以把人類的能力分成以下四個層面:(1)社會維度:社會互動及互動技巧的獲得;學習社會、組織規範、法律和文化;個人社會角色定位;合作、競爭、博弈能力。建立社會管理系統:形成社會目標並發展相應的支持系統;文化、知識的生產、傳播與擴展。(2)精神維度:自我意識;情感,個人感悟;個體目標的形成與改變;個人及社會價值。(3)物質維度:將身體和精神,知識與現實世界相結合;改變或創造新的物質形式及功能;科學、技術及工程實驗;經濟系統等。(4)理性思維維度:形成普適方法論和認識論;主動提出新問題;形成特定領域中的研究方法、範式;通過歸納、演繹等方法進行新知識的生產;將特定領域中的方法運用到其他領域之中;反思及改進;將邏輯與價值、激情等非邏輯因素結合起來;整合不同領域中的知識;基於不完全信息進行規律總結等。相比人類,AI在社會維度、精神維度等方面的能力幾乎空白,在物質維度也僅僅限於機器人執行“工業、極端環境、日常生活”等服務性工作;而在理性思維維度,當前最先進的AI無法主動提出問題,不會將特定領域中的算法延伸到其他領域,難以基於不完全信息進行推理等。

總之,AI只在某些方面與人有可比性,尚無法整體超越人類。超級AI還只是人們對未來AI發展的一種幻想與希冀,我們無需過度恐慌。

發展負責任的人工智能

應警惕AI的發展失控

早在1997年,IBM的“深藍”戰勝國際象棋冠軍卡斯帕羅夫時,人們就驚呼“AI戰勝人類”,然而“AI威脅人類”的說法甚少且不久就陷入沉寂。為何近來人們對AI威脅人類的憂慮上升?

很重要的一點在於,當前AI技術不斷侵入人類獨有的能力範疇,已展示出打破人類智能與機器智能之間邊界的趨勢。回想歷史上前幾次工業革命,雖然引發了人體物理層面能力的大幅躍升以及信息處理能力的極大進步,但都沒有衝破“人之為人”的界限——“自我意識”,即能夠根據需要主動確定目標並依靠各種資源實現目標。然而,基於深度學習技術的AI,可以藉助大數據,提取非結構化信息流中各種參數之間的相關性,再基於數據相關性來獲得它“心”中的世界圖景。在此過程中,雖然是AI專家創造了讓AI運行的算法,但是在這一算法下,AI能生產出哪些知識、是否可以形成自己獨有的“相關性”或“子目標”?這還是一個“黑箱”,即使AI專家本人也無法給出確切答案。另外,AI還有對自身所依賴的、由人類設計的算法本身進行自主改進的潛在可能性,這與人類可以完全控制的傳統技術有很大不同。這種自適應能力或者“智能”,會產生人類無法預見的後果。所以,AI的發展依然有失控風險。

發展負責任的AI

對於一個尚在發展過程中、充滿不確定性的技術領域來說,它究竟會產生哪些倫理與社會後果,我們無法預先知曉,也不能坐以待斃。因為過於惶恐地拉響警報、陷入科幻式遐思,把某種未來的可能性視作當下實際存在的問題,乃至呼籲停止技術發展,可能讓我們錯失技術發展所能帶給社會的收益;如果坐等技術發展產生問題後再做“事後諸葛亮”,那麼,很多不必要的危害可能已經產生。過早拉響警報、過晚做出反饋,都低估了我們主動塑造未來的能力,都忽視了社會和科技發展是共同演化的。

傳統上,技術被認為是在某種程度上獨立於社會發展的,技術完成時被輸送給社會,然後,社會選擇是否採納某項技術。如果採納了,那麼,這項技術就產生了社會影響。倫理道德被看作技術活動之外的一種規範力量,倫理學家的工作就是批判和反思技術的社會後果。然而,今天,人們已經認識到,科學、技術、社會、政治、自然與文化等因素都處在一張異質性網絡之中,互動並影響著彼此。任何一項技術都是在社會語境之中發展起來的,是人工物、社會實踐、體制安排、知識體系的“社會技術系統”。科學家與工程師並不是孤立地去做研究,相反,他們的研究是由社會的、文化的、經濟的和政治的因素以及他們對自然的瞭解所共同塑造的。由此,對於將給人類社會帶來深刻變革的人工智能技術,倫理道德作為技術的塑造者之一,可以扮演更加積極的角色。

面對人工智能可能的風險與受益,我們必須隨著科學研究和技術發展,進行動態的倫理考量,逐步建立AI的具體倫理規劃。這不僅需要AI業內人士的積極參與,更需要跨越學科、社會、政治、經濟和國家的界限,開展多方合作,以負責任的方式,讓所有受影響的個體、群體和區域都能參與技術發展過程,最終真正讓技術造福人類。

對此,無論是英國還是歐盟都把價值觀提到了人工智能發展的戰略高度,先後發佈報告,確立了以人為本的人工智能價值觀。我國也在這方面邁出了令人欣喜的一步。2017年7月,我國印發了《新一代人工智能發展規劃》,呼籲“建成更加完善的人工智能法律法規、倫理規範和政策體系”“加強對人工智能潛在危害與收益的評估”“深化在人工智能法律法規、國際規則等方面的國際合作,共同應對全球挑戰”。人工智能技術方興未艾,我們期待中國自己的人工智能價值觀和倫理觀能夠影響和幫助塑造世界人工智能技術的發展。

每日分享互聯網趣聞,福利、思維、模式


分享到:


相關文章: