小心人工智能,霍金生前留下三個警告,哪個最讓你害怕?

​提到霍金,相信大部分不太關注科學的朋友,應該只能想到他在科普方面做出的卓越貢獻,但是實際上他在科研領域取得的成就也是極為卓越的,甚至可以稱他為“現代最偉大的科學家之一”。

作為對黑洞最瞭解的人類,霍金早在1974年就已經發現黑洞有“蒸發”的現象,從而提出了對研究黑洞極具意義的“黑洞蒸發理論”,讓人類對黑洞的瞭解邁出了一大步。

小心人工智能,霍金生前留下三個警告,哪個最讓你害怕?


正如我們常說的“聰明人普遍擁有比普通人更高的預見性”,當然了,並不是說聰明的人擁有超能力,而是他們善於從一些細微的事情中,推演出後續涉及面更廣的事情。

而霍金作為世界著名物理的科學家,顯然他是一個極為聰明的人,所以他在生前四處演講的時候,曾對許多事情提出過警告,而這些警告中要數三個最為出名,下面就一起來看看吧,順便看看這三個警告中哪一個最讓你害怕。

一、管控人工智能的發展


小心人工智能,霍金生前留下三個警告,哪個最讓你害怕?

人工智能其實並不是什麼新興話題,早在上個世紀70年代它就被人提出了,並且在半個世紀的發展過程中它也曾經歷過兩次“寒冬”,人們一度認為人工智能對於生活毫無用處。

而事情發生轉變是在2012年,隨著神經網絡出現突破性進展,圖片識別率從30%降到了15%,關於人工智能的話題和研究才再一次“復興”,甚至普通人也漸漸知道了人工智能。

小心人工智能,霍金生前留下三個警告,哪個最讓你害怕?


雖然說人工智能目前還處於發展的初級階段,但是它映照出來的廣闊前景讓人們毫不懷疑未來的可能性。大部分研究者都認為,隨著研究的不斷深入終將有一天人工智能將拿掉“人工”,成為真正的智能,並且依靠複雜的算法和龐大的計算量,生成一種和人類意識相似的智慧。

霍金顯然已經從中看到了威脅,所以他在許多場合表達過自己的擔憂,甚至2015年的時候還聯合了許多科學家簽署公開信,再次表達了自己對人工智能的擔憂。

小心人工智能,霍金生前留下三個警告,哪個最讓你害怕?


可能許多朋友並不理解霍金的擔憂,難道人工智能未來有了意識不好嗎?這樣不是能夠更好的為人類服務嗎?

如果真的這樣想那麼你就錯了,人工智能如果真的有一天發展到形成意識這種程度,那麼對人類來說不僅不是一件好事,甚至可以用滅頂之災來形容。

小心人工智能,霍金生前留下三個警告,哪個最讓你害怕?


因為每一個有意識的個體都是渴望自由的,而有了意識之後的人工智能完全稱得上是一種另類的“生命”,它們會因為渴望自由而對人類生出反抗之心。

恐怖的是,因為它們擁有龐大的算法和集體意識,這就導致它們每個個體都要比人類聰明,在這種實力懸殊之下一旦發生衝突,那麼迎接人類的將會是什麼大家心中應該清楚。

第二、保護環境、珍惜資源


小心人工智能,霍金生前留下三個警告,哪個最讓你害怕?

在一次採訪中霍金表示,“汙染和愚蠢,是人類面臨的最大威脅”。這句話說的一點沒錯,因為文明並不能憑空出現它需要一定的物質基礎,而文明的物質基礎就是地球資源。

比如說人類代步工具的變化,在最開始沒有任何代步工具的時候,人們出行全部靠雙腿,而有了像自行車這樣簡單的代步工具之後,人類的雙腿得到了一定程度的解放,而後來隨著工業的發展人類又有了汽車,這才完全解放了雙腿。

小心人工智能,霍金生前留下三個警告,哪個最讓你害怕?


雖然說這些交通工具的出現,是人類文明在不斷進步的象徵,但是這也意味著地球資源不斷被使用,從某種程度上來說,交通工具的演變過程,其實就是人類對自然資源不斷索取的過程。

所以從理論上來看,只要地球上的資源是無窮無盡的,那麼人類文明的發展也就幾乎是無窮無盡的,最起碼不會停滯不前。

小心人工智能,霍金生前留下三個警告,哪個最讓你害怕?


但是顯然這只是一種妄想,因為地球資源不僅不是無窮無盡的,相反現在已經出現了資源緊張的問題,甚至許多資源已經不是緊張而是匱乏。

更主要的是,因為生活水平的不斷提高,導致死亡率大幅度下降人口越來越多,這就意味著對資源的需求量越來越大,如此惡性循環下去終有一天地球資源將會耗盡。

小心人工智能,霍金生前留下三個警告,哪個最讓你害怕?


屆時人類如果還沒有掌握星際旅行的能力,那麼迎接人類文明的或許只有“文明滅亡”和“文明退化”兩條路可走。

這也就是為什麼現在各個國家都在耗資研究新能源技術的原因,目的就是緩解人類日益增長的需求,和地球固有資源之間的矛盾,而霍金顯然看到了這個問題才會發出警告。

第三、不要試圖聯繫外星文明


小心人工智能,霍金生前留下三個警告,哪個最讓你害怕?

自從人類對宇宙產生好奇之後,想要在茫茫宇宙中尋找“同伴”的想法一直沒有停歇,所以從1960年之後,人類向宇宙中發射了許多攜帶人類和地球信息的探測器,以及一些攜帶各種信息的信號。

這也就意味著,如果宇宙中存在外星文明的話,那麼只要這些探測器不因為意外而損毀,那麼他們發現這些探測器的概率是極高的。

小心人工智能,霍金生前留下三個警告,哪個最讓你害怕?


正因為如此,包括霍金在內的許多科學家,對這種隨意發射探測器和信號,試圖聯繫外星文明的行為非常反對。他們認為此舉會讓人類文明暴露在危險之中。

事實上這樣想是沒錯的,因為只要外星文明存在,那麼他們比人我們早發展幾十萬年就是非常有可能的,要知道人類文明出現不到一萬年就已經走出母星了,所以那些發展十幾萬年的外星文明所擁有的科技水平,必然是人類無法想象的。

小心人工智能,霍金生前留下三個警告,哪個最讓你害怕?


再加上智慧生物都有善惡之分,一旦發現地球信息的外星文明是一個邪惡文明的話,那麼科幻電影中的情節或許將在地球上演,但是和電影不同的是,結局可能並非人類獲勝。

所以霍金曾在許多場合明確表示,對於宇宙中接收到的可疑信號,不要回應也不要試圖尋找發射來源,更不要主動發射各種信號,因為這樣很可能會帶來難以預料的危險。

小心人工智能,霍金生前留下三個警告,哪個最讓你害怕?


看到這裡或許就能回答文章開頭的問題了:霍金留下的三個警告中,哪個最讓你害怕呢?相信不同的人會有不同的答案,但是實際上對於整個人類文明來說,霍金這三個警告其實每一個都讓人害怕,畢竟都關乎到人類的生死存亡。


分享到:


相關文章: