地球文明七大公敵

牛津大學的研究人員編制了一份“地球文明被摧毀可能性的評估報告”,列出了人類文明,最可能馬上就要面臨的“大災禍”。

難道真的像狄更斯所說,“人們正踏上天堂之路,人們正走向地獄之門。”

極端氣候變化

氣候變化的危害,越來越明顯,也越來越頻繁。無法控制的氣候,是給全人類的當頭棒喝。而且,這種變化,對最貧窮的國家影響最大。大量人死於饑荒和巨大的移民潮,可能會導致全球大亂。

核戰爭

雖然核戰爭的可能性小於上個世紀冷戰時期,但是,故意或意外核衝突的可能性,一直沒有排除。向前又走了半分鐘的世界末日鍾,說明核戰爭的威脅並不遠,而且,控制核戰爭的按鈕,並不在傳統的核大國手裡。

全球疾病大流行

西班牙大流感已經過去100年,但是,“更快、更高、更強”的流行病爆發,比普遍認為的更有可能發生。說到底,全世界的醫療系統,應對流行病的能力在預防災難方面很重要,怕只怕出現這種無法控制的傳染病。

超級火山

2018年,印尼的地震、海嘯和火山爆發,讓科學家們擔心,環太平洋火山帶是否已經進入了活躍期。如果這種擔憂成真,那麼西到南美洲,東到日本海,都會拉響紅色警報。

超級火山爆發,並非是天方夜譚。

超級火山的最大威脅是全球性塵埃雲,從而阻擋太陽光線並導致全球性的冬天,這種影響可以堪比核戰爭造成的影響。

生態災難

擺在全世界人面前的問題是,要麼保護生態系統,要麼讓人類文明獨立於自然。

現在,物種滅絕的速度目前遠遠快於歷史速度,如果人類不能解決這個問題,接下來就要面對世界性的生態災難。

基因生物學

2018年11月,基因編輯嬰兒事件,引發了全世界的軒然大波。因為,這不單單是這對雙胞胎的基因修改問題,而是會生出一個滅絕人類的終極武器——工程病原體。

如果基因研究的過程中,沒有監管或自律的約束,那麼,人類遲早會把自己玩死。

人工智能

霍金認為,“極端”人工智能“無法輕易得到控制”,而且將“可能採取行動提高它們自身的智力並獲取最大資源”。但是,我們生存的關鍵因素之一是“會否有一個占主導地位的人工智能或大量的實體出現”。

儘管霍金的說法,有點拗口,一言以蔽之——在未來,強大的人工智能,會成為人類難以預估的威脅!


分享到:


相關文章: