你知道未来人类会以哪几种方式灭亡吗?结局很残酷

第一,最温柔的自然灭亡。

没有什么特别的,一切都按照现在的科学家研究出的定理原则运行,直到太阳光热散尽,人类将愉快的度过未来的几十亿年。

宇宙膨胀理论,越膨胀,基于能量恒定原理,温度总量不变,体积变大,温度会变低,直到冷静死寂到不再适合人类生存。

人类有足够的时间去发展宇宙航行技术,实现星际迁徙,人类的火种可以生存到整个宇宙的冷却,这是最完美的结局。


你知道未来人类会以哪几种方式灭亡吗?结局很残酷

第二,较温柔的外来因素灭亡。

一场史无前例的流行疾病,如生化危机中的丧尸病毒。

被基因攻击,可能来自于觊觎地球的人工智能,也可能来自于人类疏忽大意,也可能是人工智能要温和的灭亡掉人类。

你知道未来人类会以哪几种方式灭亡吗?结局很残酷

第三,天气灾难。

就像《2012》中的空前巨大的洪水,或者是《后天》中的全球化冰冻。

你知道未来人类会以哪几种方式灭亡吗?结局很残酷

第四,人类之间的战争。

2008年10月23日,撰文称,全世界范围内从古到今,至少有98位预言家预言过第三次世界大战。预言第三次世界大战将在2025年到2040年之间爆发的预言家多达56位。根据56位预言家的预言,分析得出2032年爆发第三次世界大战的可能性最大。

那意味着什么,核战争,地球将会被人类自己毁灭掉。但是这些都是不可能发生的,因为自从有了核武器之后,地球变得更加和平了,和平已经深入到了人们的骨髓之中。

你知道未来人类会以哪几种方式灭亡吗?结局很残酷

第五,人工智能。

可能是机械公敌那样对人类血腥杀戮,就像清理蟑螂一样清理人类。可能是随风散播一种可以灭绝人类的绝世病毒,造成人类快速消亡。

作为享誉世界的物理学家,霍金对于AI持谨慎态度,他认为一旦人类创造出具有自我意识的超级智慧,可能会面临着自我毁灭的风险,因为AI的意志可能会与我们产生冲突。

总之,强大的AI的兴起,或许将是人类最好或是最糟糕的事,这我们还不清楚。”

霍金之所以会有这种担忧,是因为在他看来,AI的潜力是无限的,“生物大脑与电脑的能力并没有太区别。”

因此,从理论上讲,计算机可以模仿人类智慧,并超越它。”

这已经不是霍金第一次对AI潜在威胁提出警告了。去年年初,霍金就与一些AI专家,还有马斯克、沃茨等名人发表联合声明,呼吁禁止武器化AI和自主作战系统。

这些,发生的可能是强人工智能的出现,现在言之尚早。

你知道未来人类会以哪几种方式灭亡吗?结局很残酷

第六,外星文明的入侵。

如果地球被外星文明发现,外星文明到达地球,尝试性的接触地球文明,如果他们不喜欢地球文明,就可能毁灭地球文明。

外星文明或许并不像我们想象的那么友好。霍金曾经称「如果外星人造访地球,我认为结果可能会和哥伦布首次造访美洲大陆很相似,这对土著人来说可不是一件好事。」先进的外星文明可能是一个「游牧文明」,征服并殖民他们所能触及的星球,利用星球上的资源建造新的飞船,从而不断持续他们在宇宙中扩张的步伐。

或许正如《三体》中所描述的一样,宇宙本来就是黑暗的,在黑暗森林中到处都是带枪的猎人。「生存是文明的第一需要;文明不断增长和扩张,但宇宙中的物质总量保持不变。」纵观历史,人类文明之间为了生存和发展都经常大动干戈,更何况是不同星球的文明之间。悲哀的是,相对于先进的外星文明,我们可能真的只是一群虫子!

你知道未来人类会以哪几种方式灭亡吗?结局很残酷


分享到:


相關文章: