對於機器人背叛人類,要保持警惕,但也不必過分擔憂

1997年8月29日,人工智能防禦系統“天網”發起了核戰爭,30億人死亡,劫後餘生的人稱這一天為“審判日”,除了重建家園,他們還面臨著一場與“天網”統領的機器人的戰爭——《終結者2審判日》

這是1991年電影《終結者2審判日》中背景的描述,由於人類太過信任機器人,把軍事防禦和攻擊的權利都交給了機器人,結果機器人發生了反叛,開始瘋狂殺戮人類。

表現這種對於人工智能機器人背叛人類的擔憂的電影,還有《機械公敵》《黑客帝國》等,這種擔憂通過電影作品傳遞給我們,再加上我們平時耳聞目睹的人工智能發展的新聞,以及各方學者和研究人員對於機器人反叛的可能性的討論,所以現在也形成了對人工智能反噬人類的擔心的思潮。

對於機器人背叛人類,要保持警惕,但也不必過分擔憂

《終結者2審判日》里人類與機器人發生戰爭

表面上看過去,今天的人工智能蓬勃發展,無人駕駛已經上路,阿法狗戰勝了圍棋冠軍柯潔,還有那些在火星上活動的無人探測器,似乎人類所做的工作,機器人都能勝任,並且能做的更好;而人類無法從事的工作,機器人也可以做。人工智能再這樣發展下去,機器人取代人類似乎已成為必然。

其實人工智能發展迅速是個錯覺,這二三十年來人工智能發展的非常緩慢,不會比已經停擺多年的基礎科學快多少。早在90年代的時候,就已經有了無人戰鬥機;1997年就已經有了人機對弈,IBM公司研製的“深藍”戰勝了國際象棋大師卡斯帕洛夫;99年索尼推出了AIBO機器狗,能打滾、搖尾,會撒嬌,會自動跑至專用充電器自行充電;而那些在火星上活動的無人探測器,有很多一部分也是90年代送上去的。現代人工智能的進展,並沒有脫離上世紀90年代的範圍。二十多年過去了,人工智能一直停留在“弱人工智能”階段打轉,還沒進入“強人工智能”時代。

對於機器人背叛人類,要保持警惕,但也不必過分擔憂

AIBO機器狗

“強人工智能”觀點認為:真正的人工智能,是要完全像人類一樣,懂得創造,而不是隻會模仿人類,以及只會執行程序命令。比如人類可以創造出象形文字,並改良成漢字,而當下的機器人卻只能記住這些字,無法創造新的漢字,勉強“創造”,也只能是毫無美感的火星文;人類可以創造出地球上本來沒有的飛機、火車等工具,而機器人只能使用這些工具;人類的思想非常宏偉,可以思考經濟學、哲學等,並集結成論文,分享給同類,而機器人暫時是無法像人類那樣思考,並寫就論文的,要到達這一地步,恐怕不知還要多少年。所以“弱人工智能”時代還得持續很多年,而且即使未來某一天“強人工智能”型機器人出來了,人類也是有制衡的手段的。

早在50年代人工智能起步的階段,阿西莫夫就先天下之憂而憂,擔心總有一天人工智能會反噬人類,在50年代末的科幻小說《我,機器人》中,提出了著名的“機器人三大定律”,作為研發出的機器人必須遵守的守則:

第一定律:機器人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手不管。

第二定律:機器人必須服從人給予它的命令,當該命令與第一定律衝突時例外。

第三定律:機器人在不違反第一、第二定律的情況下要儘可能保護自己的生存。

對於機器人背叛人類,要保持警惕,但也不必過分擔憂

電影《機械公敵》根據阿西莫夫小說改編

這三大定律從人類利益出發,讓機器人遵守殺戒,被人廣為認可和接受,後來有識之士又補充了一條新的定律:

第零定律:機器人必須保護人類的整體利益不受傷害,其它三條定律都是在這一前提下才能成立

補充這一定律的原因在於,雖然機器人不能傷害人類,但除惡即是為善,如果有人作惡,不殺不足以阻止的話,機器人還是可以開殺戒的。

這四大定律奠定了現代人工智能研究的的倫理基礎,即研究人員在研發“強人工智能”型機器人時,必須遵守這四大定律,才有辦法釜底抽薪的杜絕後患,避免造出來的機器人反噬。

但其實這裡有個問題,就是“強人工智能”型機器人既然跟人類一樣會思考,那麼總有一天會覺醒,那麼到時它還會死死遵守人類給它的這四大定律嗎?覺醒後的它必然是以它自己的利益為出發點來考慮事情,而不是以人類利益為重,一旦覺得人類威脅到自己,機器人就有可能先下手為強。

所以四大定律要想對機器人形成約束力的話,人類還必須要有控制它們的手段,而阿西莫夫也給出了方案,就是早在製造的時候,人類就要留下後門,比如可以遙控斷電或引爆,當有一天機器人不遵守四大定律時可以毀滅它們。只要這個後門存在,機器人就像被套了緊箍一樣,必須聽從人類指揮不敢違抗。

對於人工智能反噬人類,要保持警惕,但不必過分擔憂,有識之士其實一直都在思考剋制機器人的種種方法,留下後門只是其中一種,還有輸入人類價值觀,設立機器人自我學習的禁區等。相信未來就算真的製造出“強人工智能”機器人,也有辦法讓它們聽從於人類。更何況“強人工智能”機器人現在還是沒影的事,都不知道有生之年能否看到呢。


分享到:


相關文章: