05.14 「書評」製造“道德機器人”的遠慮與近憂

「書評」製造“道德機器人”的遠慮與近憂

科林·艾倫,溫德爾·瓦拉赫著,王小紅譯。北京:北京大學出版社,2017 年11 月第1 版。

隨著人工智能和機器人技術的發展,自主性日漸增強的機器已經出現在金融、軍事、電力控制、交通運輸等領域,並且在可展望的未來仍將飛速拓展其應用空間。如果說機器獲得和人同等水平的道德後,可能出現的種種困境還只是遠慮,那麼如何讓越來越具有自主性的機器根據符合人類道德標準的決策去行動則是近憂了。《道德機器:如何讓機器人明辨是非》是美國認知科學哲學家科林·艾倫(Colin Allen)和技術倫理專家溫德爾·瓦拉赫(Wendell Wallach)合著的一部機器道德領域的開創性著作,其關注點已經超出了人類如何使用計算機之類的應用倫理學問題,而跨進到該如何建構有道德的機器這一直指實質的問題。

一開篇,該書就介紹了目前具有一定自主性的機器系統所存在的道德盲區,引發讀者重視製造道德機器的迫切性。有道德的機器並不會自動出現,而是需要人為的設計和干預。作者關注目前的機器人系統,發現它們要麼是自主性和道德敏感性都很低的系統,尚處於完全受設計者和使用者控制的“操作性道德”區域內;要麼是自主性高而倫理敏感性低、或自主性低而倫理敏感性高的系統,只具備有限的“功能性道德”。該書分別描述了它們的侷限性,並指出如何讓具有高度自主性的機器人成為道德主體,即人工道德智能體(AMAs),亦即書名所謂的“道德機器”,這是擺在倫理學家、哲學家、認知科學家和機器人學家面前的難題。

“道德機器”並非一個自然而然的說法。如果機器人可以實現道德決策的功能,人類真的會想要機器人這樣去做嗎?人類將機器人當作“士兵、伴侶和奴隸”,在每種關係中將機器人升級為AMAs ,都會帶來一定的社會風險。作者承認風險的可能,但更注重在技術發展中評估和控制風險。相比舊式技術哲學家可能採取的對技術進步觀的批判,或者工程師可能具有的盲目的技術樂觀主義,該書作者顯然更贊同哲學家海倫·尼森鮑姆所提出的意在向技術注入增進人類福利的價值觀的“工程能動主義”,致力於引導工程師不僅僅關注操作性道德的價值方面,更要為機器人系統自身提供清晰的道德推理和決策能力。作者還進一步追問:既然機器人這個基於邏輯平臺建立的必然性系統沒有如人類一樣的自由意志、理解和意識等,那麼,它真的可以有道德嗎?雖然關於人類道德的本質極富爭議,與其對“工程能動主義”的認同相一致,作者相信,即使關於倫理本質的本體論問題、認識論問題和機器道德的實踐問題都懸而未決,卻並不影響通過推進構建AMAs 的實踐去促進對於倫理本質的本體論和認識論問題的理解。相比難以定論的哲學爭論,作者更關心AMAs 的決策和人類的行為在道德效果上的等同程度,提出了評價AMAs 設計成功程度的標準——類似經典圖靈測試的對比道德圖靈測試,即成功的AMAs 應在人與AMAs 的混雜測試中始終是更為道德的那一個。

該書的主旨意在探討如何建構成功的AMAs。當進入實踐層面,一些複雜的問題仍會浮現出來。AMAs 將貫徹誰的道德標準、怎樣的道德程序?作者承認構建AMAs 有不同路徑,聚焦於構造滿足外部評價標準的道德機器的實踐目的,探討倫理學家應如何和工程師通力合作,使得道德機器實現道德決策能力。總括地說,有自上而下進路、自下而上進路2種設計思路。前者指的是設定一套可以轉化為算法的倫理規則,用它來指導設計執行規則的子系統,這樣AMAs 有道德的行動就轉變為遵守規則的問題;後者指的是不預先給定倫理規則,而是創造環境讓AMAs 自主地探索學習,當其做出道德上良好的行為,給予積極反饋使之得到強化。

當然,2 種進路都存在一些問題。對於前者而言,無論採取功利主義還是道義論所支持的普遍原則,都會遇到具體規則如何與首要原則自洽、難以落實的計算複雜性等問題。採用後者則會面臨當環境變化時如何適應、難以確定AMAs 是否會產生出複雜的道德判斷能力等問題。基於以上分析,作者矚目於未來應用聯結主義網絡來開發具有美德的系統,這採用的是兩者混合式的進路,既強調一定的倫理原則的重要性,又具有一定的靈活度拓展行動的範圍。

除理論探討外,該書後幾章中介紹了設計AMAs 的一些近期的具體實踐,如關注道德決策的MedEthEx 等軟件系統,具有一定具身認知、社交能力等超理性能力的機器人Leonardo 等,基於全局工作空間理論整合理性推理與情感的LIDA 模型,這些AMAs 的前沿實踐各有一些生動有趣的進展,它們區別於科幻片的未來狂想,展示了道德機器的真實發展水平和趨勢。

作者採用的是更靠近工程實踐的“施事者”視角,以便於更好地參與和工程師共建AMAs 的合作,並寄望於通過持續關注道德機器的工程實踐中的具體問題,為人類目前的倫理理解提供反饋。總的來說,該書話題圍繞如何成功地“教機器人明辨是非”展開,涉及倫理學、認知科學、心理學、機器人學等多個學科,有著豐富的信息含量。它成功地引起人們對於建構AMAs 迫切性的關注,詳盡地介紹了關於AMAs 的2 種設計進路的優劣勢,並且可信地介紹了當下體現著混雜進路的多種AMAs 初步實踐。唯一遺憾的是,作者有意無意地簡化了非工程問題的複雜性。

在AMAs 完全實現的時代,人與機器將如何進行合乎道德地行為交互?作者視其為未來主義的問題而予以擱置,但這還是探討“道德機器”的題中應有之義。對於這個世界上可能發生的無窮個事件和可能存在的無窮種角色來說,“道德的”不是一個非真即假的判斷。僅就作者所初步揭示的,機器道德問題已經有著足夠的複雜性,而且也是對人類道德的巨大拷問。在機器人那端,該書未充分展開的AMAs 實現“誰的道德和什麼道德”就隱含了人類不同意識形態的衝突,機器人會是人類群體衝突的新戰場嗎?而在人類這端,無論將AMAs 作為“士兵”、“伴侶”還是“奴隸”,試想如果機器人展現出足以通過對比道德圖靈測試的道德能力,那麼如何對待它們才是合乎人類道德的呢?將其作為實驗品進行實驗,根據最新的需求對其進行升級,這在性質上和第二次世界大戰期間納粹分子囚禁猶太人做實驗並且大批量地處死他們有什麼本質區別嗎?和基礎醫學研究領域用小白鼠做生理和藥理實驗,最終將其作為醫療垃圾處理有沒有本質區別呢?前者現在已經為人唾棄,因為納粹分子將猶太人視作劣等民族完全是偏見和鬼話。後者現在仍在時時上演,在人類利益面前,如何處理動物倫理問題還遠未達成共識。如果把這種道德優越的機器人作為人一樣來尊重,給予其足夠的自由發展空間,機器人會不會對人類自身的生存和發展形成反噬?儘管這些還只是一種未來主義式的推演,但已讓人很難在負罪感、無辜感和安全感面前保持心理平衡。關注如何教機器人辨別是非的工程實踐固然踏實,但該書更重要的價值可能在於沿著作者的論證分析,讀者不由得會進行更深入的思考那些終究無法在工程實踐的內部消解的“誰的道德”和“什麼樣的道德”等問題。(責任編輯 陳廣仁)

「書評」製造“道德機器人”的遠慮與近憂

作者簡介:李穎娜,西安交通大學人文社會科學學院,研究方向為計算哲學。

本文發表於《科技導報》2018年第4期,敬請關注。


分享到:


相關文章: