微軟總裁施博德:開發可信賴的人工智慧,技術設計者的角色是關鍵

微軟總裁施博德:開發可信賴的人工智能,技術設計者的角色是關鍵

【上圖為微軟公司總裁施博德(Brad Smith)】

我們正走進人工智能(AI)社會。人工智能已經深入地融入到生活與工作中,日常交通出行查看手機導航、每天在手機APP上查看各種推送的媒體新聞、工業自動化機器人代替人類生產著各種產品等等,已經有著非常廣泛的人工智能身影。人工智能對社會的影響,遠遠比今天人們的認知還要廣泛。

在教育、醫療保健、交通、農業、能源和製造等領域,人工智能已初顯鋒芒,極大提高了人們的理解深度和決策能力,但另一方面也必將引發新的社會問題。例如,如何確保人工智能公平對待每一個人?如何在保護隱私的同時,享受人工智能帶來的好處?如何避免失去對機器的控制?此外,人工智能系統並非法外之地,如何讓人工智能系統遵守世界各地浩如煙海的法律規定?

2018年7月9日,微軟公司總裁施博德(Brad Smith)在由中國發展研究基金會主辦的《未來基石-人工智能的社會倫理和角色》報告(以下簡稱:《報告》)發佈會上,與清華大學公管學院院長薛瀾教授就人工智能的社會角色進行了深入探討。施博德表示,人工智能可以幫助人類克服最為艱鉅的社會挑戰,但也要注意人工智能所需要承載的倫理道德和價值觀,人工智能只有在符合倫理道德標準的基礎上才能更好的服務人類社會。為了設計可信賴的人工智能,微軟提出了人工智能六項基本準則,作為體現道德原則的人工智能解決方案框架。

AI倫理道德大討論

微軟總裁施博德:開發可信賴的人工智能,技術設計者的角色是關鍵

【上圖為微軟公司總裁施博德(左)與清華大學公管學院院長薛瀾教授(右)對話】

近年來,國際社會對於人工智能的關注,日益轉移到重視人工智能中的倫理道德與法律問題。從去年開始,從美國到歐洲到中國,全球掀起了關於人工智能倫理道德大討論。特別是2018年3月,Uber自動駕駛車首次撞死了行人,進一步激發了各界對人工智能立法的關注。

國際電氣和電子工程師協會(IEEE)在2016年12月發佈了“自主和智能系統的倫理設計”1.0版本,當時彙集了全球數百位思想領袖以及人工智能、倫理道德領域專家的意見,主要為鼓勵技術開發者在開發自主系統和智能系統的時候,要優先考慮倫理道德因素與原則。2017年12月,“自主和智能系統的倫理設計”2.0版本發佈,IEEE同時推出了“倫理道德在行動”活動,鼓勵全球都積極參與IEEE發起的討論。

微軟公司積極參與國際社區關於人工智能倫理道德以及相關立法方面的討論,這是源自於比爾·蓋茨時代就追求可信計算以及建立計算與人類用戶之間的信任。在2002年,比爾·蓋茨在發送給微軟員工的一份備忘錄中就表達了可信計算比其他任何工作內容都更重要的觀點。而微軟新一任CEO薩提亞·納德拉在可信計算的基礎上,進一步提出技術的倫理與同理心。納德拉在其《刷新:重新發現商業與未來》一書中提出了“同理心+共同價值觀+安全可靠=信任”這一公式。

納德拉提出在推動人工智能發展的過程中,最重要的步驟就是對人工智能設計達成一個倫理和同理心的框架,並鼓勵全行業和全社會對此進行討論。微軟總裁施博德去年與微軟全球執行副總裁、微軟人工智能及微軟研究事業部負責人沈向洋主持撰寫了《Future Computed》一書,進一步推動了業界與社會對於人工智能倫理道德的關注。

人工智能的機遇與挑戰

微軟總裁施博德:開發可信賴的人工智能,技術設計者的角色是關鍵

中國也認識到了人工智能倫理道理的重要性。2017年,中國政府發佈《新一代人工智能發展規劃》,提出要“建立人工智能法律法規、倫理規範和政策體系,形成人工智能安全評估和管控能力”。中國發展研究基金會積極展開了《未來基石-人工智能的社會倫理和角色》研究,並參考了微軟在人工智能的社會角色和倫理方面的思考和洞察。

《報告》認為,中國在人工智能領域的快速發展,已經展示出巨大的應用前景。特別是人工智能確實能幫助中國推進經濟社會結構轉型,在人口數量上紅利消失的前提下,幫助突破供給側短板,緩解醫療、教育等社會資源挑戰。

微軟總裁施博德在對談中表示,人工智能可以幫助解決人類現在面臨最大的一些挑戰,比如精準醫療、精準農業等。

例如在精準農業方面,未來二十五年內全球人口預計將增加約25億,人工智能可提高農業產量和減少浪費,有效地增加糧食產量。例如,微軟的“FarmBeats”項目採用先進技術、聯通現有設施以及強大的雲和機器學習功能,來實現低成本的數據驅動型農業。該項目為農民提供了易於理解的建議,幫助提高農業產量,降低總體成本,減少農業對環境的影響。

當然,在另一方面,我們也看到科幻小說和科幻電影以戲劇化方式引發了公眾的恐慌,讓中產階級產生了對人工智能的知識恐慌和焦慮,社會上出現了對人工智能的狂熱投資和非理性投入等。而諸如無人車在決定“撞老人”還是“撞孩子”這樣就算是人類司機也難以決策的問題,AI決策算法到底要怎麼設計,這其實在很大程度上引發了對人類自己的反思。因此,如何讓社會更好地理解和認識人工智能,在接受的同時能夠理性地看待人工智能,是我們進入人工智能社會面臨的主要挑戰之一。

人工智能六項基本準則

與其它公司討論人工智能不同的是,微軟還在積極實踐人工智能,並且把普及人工智能全民化作為公司的使命。微軟不僅僅推出了基於智能雲Azure的人工智能服務以及Cortana人工智能助理和微軟小冰對話型聊天機器人等,更把人工智能擴散到微軟的所有產品和服務中。

《Future Computed》一書強調,40年前比爾·蓋茨和保羅·艾倫成立微軟時,他們的目標是讓每一個人都能受益於計算機的計算能力,於是他們著手建立用於家庭、學校以及工作場所、幫助人們提高效率的“個人”計算機。如今,微軟通過人工智能所做的事情也與此類似。微軟的目標是部署人人可用、體現永恆社會價值的人工智能系統,讓人工智能贏得所有人的信任。

施博德強調,要設計出可信賴、贏得所有人信任的人工智能,必須採取體現道德原則的解決方案,而這些道德原則應深深根植於重大和永恆的價值觀。具體而言,人工智能系統應公平、可靠與安全、隱私與保密、包容、透明和負責,這就是微軟的人工智能六項基本準則。

比如在可靠與安全方面,人工智能能否取得人們信任,最終取決於基於人工智能的系統能否可靠、安全和一致地運行,這不僅是在通常情況下,更包括意外或受到攻擊的情況。此外,人工智能系統往往並不能看到或理解更大的社會圖景,因此人類的判斷對於識別人工智能系統潛在的盲點和偏見非常關鍵,開發人員應意識到這些挑戰。

再比如在透明方面,因為一旦人工智能系統被用於做出影響人們生活的決策,人們就有必要了解人工智能是如何做出這些決策的。然而深度神經網絡等人工智能算法本身就是“黑箱子”,因此需要更全面的方法,使人工智能系統設計人員能夠儘可能完整、清晰地描述系統的關鍵組成要件。微軟正在與人工智能合作組織(PAI)及其他組織合作開發最佳實踐規範,以實現人工智能系統有意義的透明度。

施博德表示,創建安全、可靠的人工智能系統不是某一個人的責任,而是共同的責任。為了確保這六項原則有效實施,微軟設立了開發和研究人工智能與道德標準委員會(AETHER),幫助解決微軟人工智能研究、產品和客戶溝通中產生的倫理和社會影響問題。清華大學薛瀾教授在會上也表示,未來人工智能需要一套信息治理機制,在使用信息和保護隱私之間找到合理的平衡,而這其中公司的責任非常關鍵。像微軟提出的六項原則,可以適用到更多公司,跨界的治理機制需要儘快推進。

總結來說,人工智能的長期發展基石,無疑是技術的倫理道德和價值觀。畢竟技術是由人所創造出來的產物,反應了人的思維和智慧,也反應了人的倫理道德和價值觀。面對新一輪技術帶來的巨大變化和衝擊,人工智能的最大挑戰不在技術而在於設計、開發和使用技術的人。建立負責任地使用人工智能的原則、政策和法律是全社會和全人類共同面對的挑戰,需要政府、學界、企業等各利益相關方的共同努力。(文/寧川)


分享到:


相關文章: