你知道未來人類會以哪幾種方式滅亡嗎?結局很殘酷

第一,最溫柔的自然滅亡。

沒有什麼特別的,一切都按照現在的科學家研究出的定理原則運行,直到太陽光熱散盡,人類將愉快的度過未來的幾十億年。

宇宙膨脹理論,越膨脹,基於能量恆定原理,溫度總量不變,體積變大,溫度會變低,直到冷靜死寂到不再適合人類生存。

人類有足夠的時間去發展宇宙航行技術,實現星際遷徙,人類的火種可以生存到整個宇宙的冷卻,這是最完美的結局。


你知道未來人類會以哪幾種方式滅亡嗎?結局很殘酷

第二,較溫柔的外來因素滅亡。

一場史無前例的流行疾病,如生化危機中的喪屍病毒。

被基因攻擊,可能來自於覬覦地球的人工智能,也可能來自於人類疏忽大意,也可能是人工智能要溫和的滅亡掉人類。

你知道未來人類會以哪幾種方式滅亡嗎?結局很殘酷

第三,天氣災難。

就像《2012》中的空前巨大的洪水,或者是《後天》中的全球化冰凍。

你知道未來人類會以哪幾種方式滅亡嗎?結局很殘酷

第四,人類之間的戰爭。

2008年10月23日,撰文稱,全世界範圍內從古到今,至少有98位預言家預言過第三次世界大戰。預言第三次世界大戰將在2025年到2040年之間爆發的預言家多達56位。根據56位預言家的預言,分析得出2032年爆發第三次世界大戰的可能性最大。

那意味著什麼,核戰爭,地球將會被人類自己毀滅掉。但是這些都是不可能發生的,因為自從有了核武器之後,地球變得更加和平了,和平已經深入到了人們的骨髓之中。

你知道未來人類會以哪幾種方式滅亡嗎?結局很殘酷

第五,人工智能。

可能是機械公敵那樣對人類血腥殺戮,就像清理蟑螂一樣清理人類。可能是隨風散播一種可以滅絕人類的絕世病毒,造成人類快速消亡。

作為享譽世界的物理學家,霍金對於AI持謹慎態度,他認為一旦人類創造出具有自我意識的超級智慧,可能會面臨著自我毀滅的風險,因為AI的意志可能會與我們產生衝突。

總之,強大的AI的興起,或許將是人類最好或是最糟糕的事,這我們還不清楚。”

霍金之所以會有這種擔憂,是因為在他看來,AI的潛力是無限的,“生物大腦與電腦的能力並沒有太區別。”

因此,從理論上講,計算機可以模仿人類智慧,並超越它。”

這已經不是霍金第一次對AI潛在威脅提出警告了。去年年初,霍金就與一些AI專家,還有馬斯克、沃茨等名人發表聯合聲明,呼籲禁止武器化AI和自主作戰系統。

這些,發生的可能是強人工智能的出現,現在言之尚早。

你知道未來人類會以哪幾種方式滅亡嗎?結局很殘酷

第六,外星文明的入侵。

如果地球被外星文明發現,外星文明到達地球,嘗試性的接觸地球文明,如果他們不喜歡地球文明,就可能毀滅地球文明。

外星文明或許並不像我們想象的那麼友好。霍金曾經稱「如果外星人造訪地球,我認為結果可能會和哥倫布首次造訪美洲大陸很相似,這對土著人來說可不是一件好事。」先進的外星文明可能是一個「遊牧文明」,征服並殖民他們所能觸及的星球,利用星球上的資源建造新的飛船,從而不斷持續他們在宇宙中擴張的步伐。

或許正如《三體》中所描述的一樣,宇宙本來就是黑暗的,在黑暗森林中到處都是帶槍的獵人。「生存是文明的第一需要;文明不斷增長和擴張,但宇宙中的物質總量保持不變。」縱觀歷史,人類文明之間為了生存和發展都經常大動干戈,更何況是不同星球的文明之間。悲哀的是,相對於先進的外星文明,我們可能真的只是一群蟲子!

你知道未來人類會以哪幾種方式滅亡嗎?結局很殘酷


分享到:


相關文章: