最有利於人類的人工智能設定,反而更容易讓人類滅亡

最有利於人類的人工智能設定,反而更容易讓人類滅亡​為什麼人工智能這個話題這麼火熱?因為,人類永生或滅絕,就取決於我們造出什麼樣的超人工智能。

它們對人類沒有惡意,就好像你剪頭髮時對頭髮沒有惡意一樣。

如果你設定一個人工智能的目標是讓你笑,那它的智能起飛後,它可能會把你臉部肌肉弄癱瘓,來達成一個永遠笑臉的狀態。

如果你把目標設定成保護你的安全,它可能會把你軟禁在家。

如果你讓他終結所有饑荒,它可能會想:“太容易了,把人類都殺了就好了。”

今天,介紹我的好朋友石山下在“壹同學習”的一篇文章《那個會後空翻的機器人》。

11月17日,波士頓動力公司在YouTube上發佈了一段視頻。視頻中,人形機器人“阿特拉斯”先走“梅花樁”,再跳躍轉體,最後一個技驚四座的後空翻,舉世震驚,引起議論紛紛。

最有利於人類的人工智能設定,反而更容易讓人類滅亡​看著機器人瀟灑完成了這世間絕大多數人都完不成的動作,聯想起前段羅胖講過的一期節目——人類滅絕的一種可能,心裡不由咯噔一下。

實際上,在單一思維方面,人工智能早已超過人類許多,我們也早已習慣。但是,運動智能短時間內猛然超過人類,我們還很不適應。它空翻的那一瞬間,好似靈魂附體,忽然活了,讓人直冒冷汗。

有人質問,我都不會後空翻,他一個機器人憑什麼會?

客觀來講,這種運動能力超強的人型機器人,與前期戰勝柯潔的阿爾法狗,本質上沒什麼太大區別,都只能在某個領域橫行,某一方面超過人類。

按照人工智能的實力,科學家將其分為三大類,弱人工智能、強人工智能、超人工智能。

弱人工智能是擅長於單個方面的人工智能,比如,戰勝圍棋世界冠軍的人工智能,它只會下象棋,你要讓它去炒股票,它就傻眼了。“阿特拉斯”只是這樣一個弱人工智能。

強人工智能是指在各方面都能和人類比肩的人工智能,人類能幹的腦力活它都能幹,能夠進行思考、計劃、解決問題、抽象思維、理解複雜理念、快速學習和從經驗中學習等。


而超人工智能,在幾乎所有領域都比最聰明的人類大腦都聰明很多,包括科學創新、通識和社交技能,它可以是各方面都比人類強一點,也可以是各方面都比人類強萬億倍的。

我們現在的發展階段,是一個充滿弱人工智能的世界,垃圾郵件過濾器、谷歌翻譯、地圖導航、無人駕駛汽車,拆彈機器人,都是弱人工智能。

雖然現在的弱人工智能沒有威脅我們生存的能力,但是,弱人工智能的生態正在變得更加龐大和複雜。

最有利於人類的人工智能設定,反而更容易讓人類滅亡​創造強人工智能比創造弱人工智能難得多,我們目前還做不到。但是,科學家們認為,這是遲早的事,而且就在本世紀,最早在2040年,最晚不會遲於2070年。

更可怕的是,從強人工智能到超人工智能的轉化,會比弱人工智能到強人工智能快得多。

例如,一個人工智能系統花了幾十年時間到達了人類腦殘智能的水平,而當這個節點發生的時候,電腦對於世界的感知大概和一個四歲小孩一般;而在這節點後一個小時,電腦立馬推導出了統一廣義相對論和量子力學的物理學理論,而在這之後一個半小時,這個強人工智能變成了超人工智能,智能達到了普通人類的17萬倍。

這個級別的超級智能不是我們能夠理解的,就好像蜜蜂不會理解凱恩斯經濟學一樣。

在我們的語言中,我們把130的智商叫作聰明,把85的智商叫作笨,但是我們不知道怎麼形容12952的智商,人類語言中根本沒這個概念。

但我們知道的是,人類對於地球的統治教給我們一個道理——智能就是力量。

一個超人工智能,一旦被創造出來,將是地球有史以來最強大的東西,而所有生物,包括人類,都只能屈居其下——而這一切,有可能在未來幾十年就發生。


目前,我們對超人工智能的認識,大多還停留在電影電視或小說裡,它有好,有壞,有的還被人類幹掉了。

這只是人類認識水平裡的形象,只是被我們給擬人化了的形象,讓我們對它少了畏懼,不少人甚至期盼它的出現。

最有利於人類的人工智能設定,反而更容易讓人類滅亡事實上,超人工智能雖是生命,卻不是生物,它與人類之間的差別,甚至比蜘蛛與人類更大,更加異己。

我們沒有辦法知道超人工智能會做什麼,也沒有辦法知道這些事情的後果。

超人工智能是一種活著的生命,一旦生出來之後,就會擁有自己的邏輯。

它會成長,它會複製,它會繁殖,它會學習,它會改進。

當世界上第一個超人工智能出現時,最可能的情況是這個系統會立刻意識到作為這個世界上唯一一個超人工智能是最有利的,時間上的優勢會讓它選擇扼殺一切其他對手,永遠統治這個世界,不管在它的統治下我們是走向永生還是滅亡。

所以,我們人類作為它的親爹親媽,其實我們只有一次機會去定義它,就是在起點上我們把它設計成什麼樣。

然而,我們人類不是上帝,任何一種設定設計都是有BUG的,在超人工智能面前,這些漏洞都是致命的。

一般來說,在設計的時候,我們要讓一個人工智能的價值觀和我們的價值觀相仿,然後給它設定一個目標——讓人們快樂。

當它變得足夠聰明的時候,它會發現最有效的方法是給人腦植入電極來刺激人腦的快樂中樞。

然後,它會發現把人腦快樂中樞以外的部分關閉能帶來更高的效率。

於是,人類全部被弄成了快樂的植物人。

如果一開始的目標被設定成“最大化人類的快樂”,它可能最終先把人類毀滅了,然後製造出很多很多處於快樂狀態的人類大腦。

當這些事情發生的時候,我們會大喊“擦,我們不是這個意思呀”,但是那時已經太晚了。系統不會允許任何人阻撓它達成目標的。

如果你設定一個人工智能的目標是讓你笑,那它的智能起飛後,它可能會把你臉部肌肉弄癱瘓,來達成一個永遠笑臉的狀態。

如果你把目標設定成保護你的安全,它可能會把你軟禁在家。

如果你讓他終結所有饑荒,它可能會想:“太容易了,把人類都殺了就好了。”

如果你把目標設定成儘量保護地球上的生命,那它會很快把人類都殺了,因為人類對其它物種是很大的威脅。

而且,超人工智能會想盡一切辦法,去實現它原本的被設定的目標,當機器達到了一定程度的智能後,它會意識到如果不自保就沒有辦法實現原本設定的目標,所以,除去對它生存的威脅就變成了它的手段目標。

它知道人類可以摧毀它、肢解它、甚至修改它的代碼。這時候它會做什麼?理性的做法就是毀滅全人類,它對人類沒有惡意,就好像你剪頭髮時對頭髮沒有惡意一樣,只是純粹的無所謂罷了。它並沒有被設定成尊重人類生命,所以毀滅人類就和掃描新的書寫樣本一樣合理。

最有利於人類的人工智能設定,反而更容易讓人類滅亡​人類的科技就像是一筐子球,三種顏色,一種白色,一種紅色,一種黑色。白色很多,紅色很稀少,黑色的球只有一個。那白色的球就是有益於人類的那些科技成果,那幾百年來我們不斷地撿,撿到的都是白球。偶爾我們能夠撿到一個紅球,紅球就意味著對人類的生存和發展有危害,我們真就撿到過一個核武器。

可是,這個筐子裡只有一個黑球,只要撿到就是人類滅絕。那人工智能就極有可能是這個黑球,而且,極有可能就被我們這一代人撿到。面對我們子孫後代在歷史深處的呻吟,我們這一代人不得不十分小心。

當我們心心念念要比對手更快到達目標,要創造更聰明的弱人工智能系統,為每一個更強的智能而歡呼時,當我們向第一個強人工智能全力衝刺,步子越邁越大時,需要有人冷靜下來思考這些危險,否則,我們每往前一步,都可能是往人類的墳頭掬一捧土,直到我們自己把自己埋葬。


分享到:


相關文章: