如果現在,出現一種和人類智慧差不多的生物種群,會怎麼樣?

大白的淺度思考


如果不出意外的話,其中一個會被消滅。

這是生物的天性,為我獨尊的天性。

尼安德特人當然遇到我們的祖先也是這麼想的,結果他們滅亡了。

還有很多的例子,同等智慧的生物彼此遇見只會滅亡。


凡靈生夢


著名物理學教授史蒂芬-霍金對於人工智能的快速崛起有著嚴重的擔憂。他警告稱,有人可能創造出超級人工智能,它們能夠全面超越人類,而且有可能完全取代人類。在《連線雜誌》的一場專訪中,霍金教授稱人工智能取代人類可能會帶來一種新的生命形態。

霍金教授稱:“我擔心人工智能將全面取代人類(I fear that AI may replace humans altogether)。如果有人能設計出計算機病毒,那麼就會有人設計出能提升並複製自己的人工智能。這就會帶來一種能夠超越人類的全新生命形式。(If people design computer viruses, someone will design AI that improves and replicates itself. This will be a new form of life that outperforms humans.)”這並非是霍金第一次對於人工智能的發展快速和對人類的潛在威脅發出警告。

在去年10月份劍橋大學未來智力研究中心的啟用儀式上,霍金教授稱:“人工智能的崛起對於人類來說既是好事也是壞事。我認為生物大腦和計算機之間能達到的成績不會存在太大的差異。因此從理論上來說,計算機能夠模擬人類的智慧並且實現超越。”霍金教授曾經提出,技術能夠用於消滅疾病,減少和對抗氣候變化帶來的影響。但是他也提出,技術也能夠用於研發強大的自動武器,或者成為少數人壓迫多數人的方式。

霍金教授在2016年時聲稱:“人工智能研發的成功有可能成為我們人類歷史上最大的事件。但是它也可能成為人類文明最後的成就,除非我們能夠清楚如何避開風險。最近的標誌性技術,比如說自動駕駛汽車和計算機贏得圍棋比賽等,都標誌著即將到來的未來是什麼樣子。大量的投資正傾入到這項技術中,現在的這些成就當然會讓我們猜想到未來數十年的樣子。”

特斯拉和SpaceX公司CEO伊隆-馬斯克也一直表達著自己對於人工智能技術的擔憂,他稱人工智能是人類存在的風險。他最近就出聲反對前優步員工Anthony Levandowski的行為,後者創建了一個非營利性的宗教組織,呼籲人們信仰“人工智能上帝”。 Levandowski曾經是優步自動駕駛研發部分的首席工程師,他在2015年9月申請創建“未來之路”組織。馬斯克在推特中稱,Levandowski應當被列為不允許研發數字超級智能的人員之一。


水木99999


何況現在地球上高智商的人類,就從來沒有過和平的一天,總有些國家想稱霸世界,不是充當世界警察,就是大搞長臂管轄。假如真的再出現一種和人類智慧差不多的生物種群,豈不是一山難容二虎,卻又出了個老虎;一槽難拴雙馬,卻又拴上了一馬。結果就可想而知,地球永無寧日,人類難有和平,卻是最現實的。


老兵4200


首先分析這個生物種群來自哪裡,如果是地球上的有兩種結果,第一種就是人類會把他們控制起來,以免威脅到人類。第二種就是為了徹底解除威脅會徹底消滅掉,就像當年對付猶太人那樣,人類對自己同類都會如此,更何況不是同一個種群的呢。如果來自外星球的話,那要看彼此科技和武器了,如果他們的科技武器比人類發達的話。有兩種結果,一種是把人類滅亡或者殖民奴役,另一種就是他們跟本看不上人類,跟本不搭理我們。如果他們的科技武器沒有人類發達的話,據歷史所得人類肯定像發現新大陸那時一樣,會成為人類的殖民的,那裡的原著民也會成為人類奴隸或者寵物來買賣的。


90後公益科普


如果是這樣,將是人類的滅亡,叢林法則,弱肉強食,狹路相逢勇者勝,敗者為寇。因為人類有智慧才主宰統治了這個地球與其它生物,人類是生物鏈與食物鏈的最頂端,可是同樣是人類還會相互殘殺(國與國戰爭)都是為了生存,可想而知,如果別的生物有了人類的智慧,特別是攻擊性的動物,那麼就是人類的災難。


勇搏逆流


可能會發生戰爭,就現在人們的觀念而言,因為利益。


善良的人71504


新的生物群種那就是智能革命,它會產生出新的物種和智能作用。那就是天擎,天擎可以擎天啟能,力大無窮。


天籟人2


你死我活。


用戶長華


除非外星球,要不,只有人類變種…


小虎幾


那整個社會就亂套了


分享到:


相關文章: