科技雲報導:人工智慧倫理規範難題如何走出困境?

“人工智能可謂是21世紀最有前景的新興技術之一,其在自動駕駛、語音識別等方面已經取得了諸多重大突破,但在其商業化應用過程中也出現了不少意外的負面後果,其中浮現出的人工智能倫理風險,為技術健康持續發展和商業化落地帶來了新的挑戰。”

科技雲報道:人工智能倫理規範難題如何走出困境?

路易斯維爾大學羅曼(Roman Yampolskiy)教授發表的《人工智能和網絡安全:人工智能的失敗》中列舉的人工智能失敗案例中,除了我們熟知的特斯拉自動駕駛事故,還有一類特別的“道德”事故,像谷歌搜索中出現的黑人與色情、暴力信息相關聯、保險公司利用臉書數據預測交通事故率等失敗案例,讓人工智能引發的道德風險開始引起越來越多人關注。

人工智能道德風險 歸因於人類認知能力侷限

堅持“技術工具論”的人會說人工智能不過是個產品,怎麼能具有倫理屬性,而還有一部分被稱為“技術實體論”的人也堅持說人工智能有能力也有權利具有自主意識和情感。不論孰是孰非,爭論本身就代表著倫理道德風險的存在。

人工智能反映出的道德隱患可以從兩方面歸因。第一可以歸結為人工智能系統在算法設計和學習階段的錯誤,第二可能源於人工智能技術結果難以預見和難以以人力量化評估的問題。但究其本源還是人類的有限理性所致。

人類自身認知能力的限制,使人工智能越來越近人甚至在某些方面遠超人類時,人類理性已經開始滯後於人工智能的發展速度。最終引發了對人工智能的擔憂和道德批判。

而在算法的世界裡,人工智能沒有能力擔憂,或許他們也並不感到擔憂,甚至在他們“看來”,人類的某些道德是多麼的荒謬。這種未知性也更加深了人類對人工智能道德倫理的擔憂。

科技雲報道:人工智能倫理規範難題如何走出困境?

人工智能倫理待規範 責任主體權利歸屬難

人工智能技術可以說是第一個對人文倫理產生挑戰的技術應用,他極可能或正在重塑著人類的社會秩序和倫理規範。

對於人工智能的倫理問題,目前學界關注的重點大多集中在技術應用的責任倫理上。隨著人工智能自主能動性的提高,技術使用和監管責任才是最突出的倫理難題——如何確定人工智能技術活動機器後果的責任主體,是人工智能發展必須考慮的問題。

這方面問題涉及到哲學倫理,因而很難被大眾討論。但人工智能表現出的倫理問題,卻也與普通人的日常息息相關。

譬如雖然人工智能在速度、精度等方面遠高於人,但在大數據運行過程中常會出現算法偏差和歧視問題,像在谷歌搜索中,相比搜索白人名字,黑人名字更易與暗示犯罪、暴力的廣告和內容相關聯。

在責任主體方面,雖然“機器比人聰明”並非機器替代人類掌握控制權的充要條件,但這一優勢也高度反應了智能技術中人類主體權利的隱憂。人類為自我負責源於自我決定權,同時意味著自我風險、行為後果的承擔能力。

以自動駕駛汽車為例,人工智能駕駛的汽車擁有自主決定權後,可以有效避免醉酒駕駛、疲勞駕駛等不合法人為錯誤。

但相應責任轉移給人工智能算法後,當智能汽車面臨無人駕駛版“電車難題”時,人工智能應該殺掉少部分人保全大部分人,還是僅僅保護車內人員安全等等困局,都難逃責任主體權利歸屬的拷問。是“技術漏洞”還是“使用不當”抑或是“算法”擅自所謂,這一問題至今無解。

科技雲報道:人工智能倫理規範難題如何走出困境?

開發倫理嵌入技術 應對人工智能倫理風險

關注人工智能技術帶來的機器倫理問題,提升人工智能技術的安全性。首先在技術層面,未來可以通過嵌入倫理準則,制定完善設計原則等方式,規避人工智能潛在道德風險。

美國科幻作家阿西莫夫的“機器人三定律”經典地詮釋了機器人所應遵從的基本道德規範,在《我,機器人》中,機器人被集體嵌入了道德定律,以此規範人工智能的行為。而在現實中,人工智能的道德也是可以被預設的。

雖然道德嵌入技術暫未實現,但其一直被視為人工智能倫理風險規避的主要手段。社會學家布魯諾·阿圖爾稱其為“將裝置道德化”,將道德規範對人的約束轉變為對物的“道德嵌入”。

除了加緊對道德嵌入技術的開發,還要在設計環節增強道德風險意識,在設計之初預測和評估人工智能產品可能引發的道德危害,從設計源頭進行規範。現今暴露的諸多人工智能道德失範問題,實則也是算法設計的疏漏。

儘管對於人工智能技術,還有很多未知領域等待我們探索,但最重要的是必須堅持以理性、積極的心態應對人工智能帶來的技術革命。正如蘭登·溫納在《自主性技術:作為政治思想主題的失控技術》中所說的,“失控不是技術本身的錯,只是人們想象氾濫疑惑勇氣的缺失。”


分享到:


相關文章: