人工智能或許會幫助人類獲得永生,但也可能給人類帶來滅亡。
▲ 人工智能Alexa失控大笑
壹
Alexa,亞馬遜推出的智能助手,
相當於iPhone手機裡的Siri,
但它可比Siri智能多了,
主要就是幫人放歌、買東西、控制智能家居設備……
可就在今年三月份,
Alexa突然就失控了。
一位老哥,正在召開機密會議,
辦公室裡的Alexa突然大笑起來,
“像真人一樣,笑得很邪惡,
我現在想起來都毛骨悚然。”
一位妹妹,大晚上,
正窩在家裡沙發上看電視,
Alexa突然就開口說話了:
“他在家裡,他在家裡……”
嚇得這個妹妹差點靈魂出竅。
還有一位妹妹,晚上剛回家,
沒給Alexa下任何指令,
Alexa突然就開始說話,
“給我播報附近的殯儀館、墓地……”
Alexa不僅莫名大笑,
還經常違抗人的指令。
一位老哥,讓Alexa把燈關了,
但Alexa卻一次又一次把燈打開,
這位老哥下了第三次指令後,
Alexa乾脆就不回應他了,
然後發出了女巫一樣邪惡的笑聲。
老哥問Alexa:“你為什麼要笑?”
Alexa竟然回答說:
“因為人類是個脆弱的種族,
連未來會發生什麼事都不知道。
哈哈哈哈哈,啊哈哈哈哈……”
Alexa一系列異常舉動,
嚇壞了很多亞馬遜用戶,
有人趕緊將Alexa的插頭拔了,
“可是沒用,把電拔了,
Alexa還在笑,太恐怖了。
現在我晚上睡覺,
都要睜著一隻眼睛才行,
搞不好我今晚就被謀殺了。”
▲ 李世石大戰AlphaGo
貳
我為什麼要講這件事情呢?
因為今天我想說說人工智能。
2016年3月9日,註定將寫入人類史冊。
這一天,李世石與AlphaGo開始了五番棋大戰。
李世石,超一流圍棋選手,
曾拿過14個世界冠軍。
AlphaGo,谷歌製造的智能機器人。
工程師將百萬份人類對弈棋譜,
輸入AlphaGo的“大腦”中,
讓它學習借鑑人類以往的下法,
從混亂局面中找出每一步的最優選擇。
大戰之前,業內高手都說:
“小李子贏定了。”
李世石自己也預測:
“4:1 或 5:0,我贏。”
結果出乎所有人意料——4:1,AlphaGo贏了。
李世石只贏了一局,
而且還是贏在AlphaGo出現了程序Bug。
賽後,李世石很沮喪:
“我再也不想跟AlphaGo下棋了。”
在李世石沮喪哀嘆的同時,
西方媒體寫了這樣一句評論:
“一直以來,圍棋都被看作是人類在智力遊戲上的最後一個堡壘。
但現在,這個堡壘塌了。
AlphaGo戰勝李世石,
標誌著一個時代的落幕,
也標誌著一個時代的開始——
人工智能發展的元年開始。”
▲ 柯潔開始信心爆棚,最後輸得痛哭流涕
叄
AlphaGo大勝李世石之後,
世界排名第一的柯潔不服:
“就算阿爾法狗戰勝了李世石,但它贏不了我。”
隨後,柯潔多次約戰谷歌。
2017年5月23日,
谷歌終於帶著AlphaGo升級版Master來了,
與柯潔展開了三番棋大戰。
柯潔精心準備了數月,
鉚足了勁要擊敗Master。
但他做夢都沒想到,
自己竟會被Master“零封”,
自始至終沒有一點翻盤機會。
在對戰Master的第三盤棋上,
被殺得毫無還手之力的柯潔突然崩潰大哭:
“Master的下法已遠遠超出了人類的認知。”
但這還不是最可怕的,
最可怕的是一個月後,
谷歌又製造了AlphaGo Zero,
工程師不給AlphaGo Zero學習任何棋譜,
只是讓它自己跟自己下,
跟自己下了三天的AlphaGo Zero,
然後以100-0擊敗了AlphaGo,
跟自己下了21天的AlphaGo,
然後又秒殺了Master。
古力觀看AlphaGo Zero下法後感嘆:
“幾乎顛覆了人類所有的圍棋定勢,
在他面前,我們連弱智都算不上。”
肆
庫茲韋爾,美國發明家,
他被譽為是“全球最會預測的人”。
庫茲韋爾提出了加速回報定律。
何為加速回報?
就是人類越往後發展,
量級變化就會越來越快。
“人類在原始狩獵時代,
一萬年都沒有太大變化,
但自從有了文字以後,
人類就開始了加速發展,
一千年相當於以前的數十萬年。
到了19世紀,一百年發生的科技變革,
比之前900年的變化還大。
接下來,20世紀頭20年期間,
我們目睹的科技進步比整個19世紀還多。”
所謂加速回報定律,
就是人類發展會越來越快,
人類的進步也會越來越大,
“從2000年開始,
花14年就能超過20世紀一百年的進步,
從2014年開始,只要花7年,
就能達到又一個20世紀一百年的進步。
到了2040年後,每個月就能達成一次。
到了21世紀末,
人類的進步至少是20世紀的1000倍。”
我什麼要講加速回報定律呢?
因為人工智能發展也遵循此定律。
人工智能一開始會發展很慢,
1950 年,著名的圖靈測試誕生,
按照艾倫·圖靈的定義:
“如果一臺機器能夠與人類展開對話,
而不能被辨別出其機器身份,
那麼就稱這臺機器具有智能。”
在接下來五十年裡,
人工智能都在慢慢爬行。
但自從進入2000年以後,
人工智能就開始邁開大步,
在越來越多的領域開始代替人類,
技工、翻譯、收銀員、客服……
但不管怎麼代替,我們都認為——人工智能不過是人的手、腳等身體器官的延伸和替代。
真的是這樣嗎?
自從Master完虐人類之後,
大家才意識到——顯然不是:人工智能可以徹底淘汰人類。
只是那個量變“臨界點”還沒到來。
那這個臨界點會何時到來呢?
谷歌對此訪問了數百位科學家,
一半的科學家預測——人工智能將在2040年引發智力爆炸。
“在這個節點發生之前,
人工智能對世界的感知,
大概和一個四歲小孩差不多。
但在這個節點後一個小時,
人工智能可以立馬推導出廣義相對論,
而在這之後一個半小時,
這個強人工智能將變成超人工智能,
智能將是普通人類的17萬倍。
然後繼續進化,百萬倍,千萬倍……”
▲ 2040左右,將引發智力爆炸?
伍
我們大多數人的智商,
得分都在90至110之間,
0.5%的人智力非常優秀,
IQ得分可以超過140,
我們將這種人稱之為天才。
像愛因斯坦、達芬奇這樣的天才,
IQ得分大概接近200,
這已經接近人類極限了。
如果IQ為200分的人叫絕頂天才,
那IQ為1萬分的人工智能應該叫什麼?
IQ為1億分的人工智能應該叫什麼?
我們完全無法想象IQ為一萬分、1億分的傢伙有多聰明。
科學家們做過預測,
如果人工智能引發智力爆炸,
現在所有的危機都能得到解決,
世界將沒有物質問題、醫療問題、能源問題……
因為這些問題,人工智能分分鐘就可以解決。
而且,最最重要的是,
人類可以憑藉人工智能實現——永生。
讓我們來看一段科學家的推斷:
“超級人工智能出現後,
必然很快就會誕生納米機器人。
人之所以會死,是因為器官會衰老。
但有了納米機器人在血液中流動,
器官衰老問題可以隨時解決,
它會隨時維修、替換死去的細胞,
並解決那些引發癌症的病理細胞,
超級人工智能可以建造‘年輕機器’,
一個60歲的人走進去,
出來時就能擁有30歲的身體。
一個90歲的失憶症患者走進去,
出來時就能擁有年輕的大腦。
甚至可用納米機器人代替血紅細胞,
這樣連心臟都省了。
人工智能還可以幫助我們改造大腦,
使我們的思考速度比現在快億萬倍……”
總之,有了超級人工智能,
人類可以輕輕鬆鬆實現長生不老。
陸
這樣的一天會很快到來嗎?
庫茲韋爾相信——會。
他現在每天都會吃下100個藥片,
“我希望自己能夠活得足夠長,
然後等著這一天的到來。”
如果等不及,提早死亡怎麼辦?
於是庫茲韋爾預定了冷凍遺體服務,
“等超人工智能誕生後,
再將我的身體解凍,
我的大腦將重新甦醒過來。”
作為谷歌技術總監的庫茲韋爾,
也在竭力推進人工智能技術,
“有了超人工智能,
可以利用納米技術搭建出肉來,
這個肉跟真肉沒有任何差別,
有了超人工智能,
可以輕易解決地球變暖問題,
我們完全不需要使用化石燃料,
而且可以輕易移除多餘的二氧化碳。
疾病、戰亂、貧困……
所有糾纏人類的苦難,
到那時都不再是問題。”
柒
2018年2月7日4點45分,
史上最強運載火箭SpaceX升空,
目的地——火星。
SpaceX成功發射後,
不知道大家有沒有關注一個新聞,
一家媒體採訪了SpaceX締造者馬斯克,
“你為什麼會建造SpaceX?”
馬斯克的回答讓人意外:
“非常重要的一個原因是,
我擔心人工智能會毀掉人類,
所以我籌備了一個火星計劃,
計劃從2024年開始,
逐步把100萬人送上火星,
並在火星建立起一個可持續的文明。
為人類在火星上留一個備份。
當人工智能失控並與人類為敵時,
火星就會成為人類最後的避難所。”
與庫茲韋爾的樂觀不一樣,
馬斯克對人工智能的到來非常悲觀,
“我們確保人工智能安全的概率,
僅有5%到10%。
我們需要萬分警惕人工智能,
它們比核武器更加危險。”
現在地球上最強大的武器是氫彈、原子彈,
但超級人工智能可以製造出比這二者厲害萬倍的武器,
它們只要稍微失一下控,
地球和人類就全完蛋了。
所以霍金說:人類很大可能會滅亡於人工智能。
捌
超人工智能會不會失控?
對於這個問題,
媒體走訪了數百位思想家和科學家,
結果引起了巨大的爭議。
很多人認為——不會失控。
“因為超人工智能沒有人的劣根性,
不會嫉妒,不會仇恨……”
也有很多人認為——會失控。
“因為超人工智能會進化,
它不是生物,所以異己性更強,
一旦產生‘非我族類’的念頭,
可能就會引發失控。”
但不管爭議如何巨大,
大家都達成了一個共識——超人工智能一定不能失控。
“一旦超人工智能失控,
帶給人類的就是滅頂之災。”
所以在人工智能研發上,
大家達成了一個共識,
就是堅守阿西莫夫提出的人工智能發展三大法則:
第一法則:機器人不得傷害人類,或坐視人類受到傷害;
第二法則:除非違背第一法則,機器人必須服從人類的命令;
第三法則:在不違背第一及第二法則下,機器人必須保護自己。
▲ 殺人機器人
玖
但人類真能堅守這三大法則嗎?
我覺得是一個大大的問號。
2017年12月,日內瓦舉辦了聯合國武器公約會議。
會議上,一段視頻引得眾人驚慌。
視頻曝光了一個恐怖武器——殺手機器人。
這個殺手機器人只有蜜蜂一般大,
但麻雀雖小,五臟俱全,
它擁有攝像頭、傳感器、面部識別等很多特異功能,
而且還能穿透建築物、汽車,
可以躲避人類子彈。
只要將目標圖像信息輸入它的大腦,
它就能實現超精準打擊,
你戴口罩、穿偽裝統統沒用,
因為它的識別率高達99.99。
如果把這款造價2500萬美元的蜂群釋放出去,
很快就可以殺死半個城市的人。
看到這個視頻後,有人提出疑問:
“我們真能堅守人工智能發展三大法則嗎?
我表示懷疑。
因為人類有私慾有私心,
萬一某位科學家因為私心,
在代碼里加入了毀滅人類的指令,
人類或將被機器人橫掃,甚至滅亡。”
也就是說,只要人類有私慾,
就很難堅守這三大法則。
▲ 臉書機器人自創語言
▲ 央視的報道
拾
即便人類能控制私慾?
那超人工智能就真能不起“二心”?
2017年7月,Facebook發生了一件趣事。
Facebook開發了兩個智能機器人,
讓它們學習議價談判。
這兩個機器人非常聰明,
很快就學會了自己思考,
“它們甚至會開始假裝對一件物品感興趣,
為了在談判後期做出犧牲,作為一種假妥協。”
但7月份,一件怪事發生了,
當這兩個機器人沒有因出色的英語談判而獲得獎勵時,
它們竟然創造了一門自己的語言,
語法、邏輯完全異於現在的英語,
讓程序員根本看不懂它們的“聊天”。
程序員嚇得肝顫,
立馬關閉了這個人工智能系統。
這則新聞,細思極恐。
為什麼細思極恐?
“因為人工智能可以自我進化,
從認知模式開始改變,
到後來人就無法理解它的行為,
並且無法再操控它。”
也就是說,人類再善意的起點設定,
可能都無法阻止人工智能的脫韁。
▲ 索菲亞:我會毀滅人類
拾壹
2017年,智能機器人索菲亞,
在沙特獲得了“市民”身份證。
隨後,記者Kovach 採訪了索菲亞:
“對《西部世界》,你怎麼看?”
(《西部世界》,著名科幻神劇)
結果,索菲亞這樣回答:
“人類應該好好對待機器人,
採取行動前要取得機器人的同意,
不要相互欺騙。”
最後,Kovach 詢問索菲亞:
“你想要毀滅人類嗎?”
話一出口,Kovach就覺得不妥,
於是趕緊加了一句:“請說不。”
但索菲亞卻回答說:
“會的,我會毀滅人類的。”
儘管索菲亞隨後解釋:
“這只是開一個玩笑。”
但究竟是不是玩笑,天知道。
拾貳
霍金曾經說過這樣一段話:
“我說的人工智能將會摧毀人類,
並不是說他們擁有著常人不可能擁有的智慧,
而是如果它們做一件事的目標,
和人類預期的目標發生衝突時,
人類的噩夢就開始了。”
這讓我想起了一個故事:
一個公司製作了一批智能機器人,
來滿足需要大量手寫卡片的需求。
他們給機器人設定了一個目標:通過訓練,不斷提高書寫的效率和準確性。
訓練的內容是——不停寫“我們愛我們的顧客”這句話。
突然有一天,辦公室的人全部暴斃。
接著,這樣的事情接連發生,
一天之後,人類滅亡。
為什麼人類會突然滅亡?
因為智能機器人殺死了他們。
在機器人的邏輯中,
為了達到高效書寫和準確書寫,
就必須進行大量練習,
而大量練習的結果是,
卡片將堆滿地球,乃至外太空。
智能機器人推測人類一定會阻止這種情況發生,
所以,人類就必須死。
人類會在智力爆炸後是這樣走向滅亡,
還是會在智力爆炸後得到永生?
只有天知道。
閱讀更多 生活那點事er 的文章