李飛飛對談赫拉利:AI演變成全球科技競爭,會比核競賽還要可怕?

近日, 斯坦福大學社會與倫理中心,斯坦福“以人為本”AI研究院和斯坦福人文中心共同主辦了一場“未來AI”主題活動。

暢銷書《人類簡史》、《未來簡史》作家尤瓦爾·赫拉利( Yuval Noah Harari )和AI界“女神”李飛飛分別談到對未來AI發展的一些看法。

赫拉利在討論中重述了他在《未來簡史》中的預言,他認為當AI與腦科學、生物科技、大數據聯合起來時,將具備攻擊人類大腦的能力。

而李飛飛堅信任何技術都有兩面性,AI帶來的機遇和潛在的危機應該被正確看待。未來AI發展所面臨的挑戰和問題需要各界專家學者共同探討研究,重新構建下一代AI發展規劃。

李飛飛對談赫拉利:AI演變成全球科技競爭,會比核競賽還要可怕?

AI會具有入侵人類大腦的能力?

17世紀和18世紀圍繞著人的能動性和個體自由意志建立起來的現代哲學體系,面臨的不是新的哲學思想挑戰,而是AI可能帶來的顛覆。

赫拉利認為哲學危機一半來自AI與計算機技術,另一半來自腦科學和生物科技。如果總結為一個公式,生物科技*計算能力*數據=攻擊(hack)人類大腦的能力。

假若可以創建一個比自己還要了解自己的算法,現在所謂的“自由意志”,“獨立思考”,“民主投票”都會崩潰。哲學家們幾千年來討論的諸多哲學概念都將在算法面前土崩瓦解。

赫拉利強調真正入侵人類大腦的能力不是指收集用戶購買習慣,網頁瀏覽記錄,進行廣告推薦這些,而是算法可以直窺人的大腦和心臟,收集數據。

李飛飛對談赫拉利:AI演變成全球科技競爭,會比核競賽還要可怕?

李飛飛 (圖:YouTube)

而李飛飛認為,首先AI的誕生就是從神經科學、生物學中獲取的靈感。尤其是機器學習,就是從模擬人腦的神經網絡工作的。

其次,人類從火的發現開始所創造的任何技術都是一把雙刃劍。它可以給生活、工作和社會帶來改善,也可以帶來危險,所以AI也會有危險。

從60年代後到今天,AI在醫療保健方面收集了大量生理學和病理學數據,並利用機器學習來輔助醫生診斷和治療,很大程度上改善了人們的醫療健康水平。

AI是一項革命性的技術。雖然與物理、化學、生物學相比,它仍然是一門新興的科學,但有了數據、計算力,AI正在對人類的商業和生活產生各種各樣的影響。

面對人類面臨的各種問題和危機,斯坦福大學“以人為本”AI 研究中心提供的一個建議是,重構下一階段AI的研究和發展。這需要人文學家、哲學家、歷史學家、政治科學家、經濟學家、倫理學家、法律學者、神經科學家、心理學家以及其他眾多領域科學家共同研究。

關於人類的愛情,AI也能學習嗎?

愛情是人類獨有的情感,AI是否能進化,以至有能力進入人類愛的堡壘?

李飛飛對談赫拉利:AI演變成全球科技競爭,會比核競賽還要可怕?

尤瓦爾·赫拉利(圖:YouTube)

赫拉利認為,關鍵如何來定義“愛情”。從生物學角度來看,愛情的產生無非是一串身體內部產生的生化反應,荷爾蒙會升高,心跳會變化,外部的情緒和動作也跟著變化,如果機器算法可以給這種生理過程編碼,愛情的產生就和一場禽流感沒什麼區別。

李飛飛對此完全不同意,首先,AI算法還沒有達到如此強大的地步,不僅可以預測和判斷我們的金融消費行為,還可以將人類的意識和愛進行模型生成,這種AI在我們這個時代是不可能的。

另外,這個時代不是隻有AI這一種技術,過去,現在和未來,都有很多種技術與AI 同時發展,有的技術甚至比AI更強大。人類在其歷史上面臨著如此多的技術,如果沒有任何監管、規則、法律、道德準則,那麼技術可能早已以巨大的方式摧毀人類或傷害人類。

但從歷史的角度來看,我們的社會正在向一個更加文明可控的方向邁進。所有的技術都有可能落入壞人之手,AI誤入壞人之手的可能性和負面影響不應該被單獨放大。應對AI的發展和危機,應同其他科技領域的技術一起看待,一起來面對和解決。

AI 全球競賽,比核競賽還要危險?

赫拉利在訪談中講到,AI的發展只有少數國家有競爭優勢,尤其是中美兩國,在技術,人才等上面有絕對的優勢,而很多其他國家,如非洲國家,甚至一些歐洲國家已經遠遠落後於這場競賽。更為可怕的是,AI的發展中,競爭的味道更濃,而不是合作大於競爭。如果AI演變成全球科技競爭,這對全人類都不是一件好事。

真正的可怕之處在於“數據殖民”。例如19世紀的全球殖民地統治,英國在印度或埃及種植棉花,然後將原料運到英國,用高新技術生產襯衫,再送回印度銷售,與當地廠家競爭。某種程度上,現在的數據經濟也是這樣,創業公司在巴西和印度尼西亞等地收集數據,但他們不在那裡處理數據,而是送往加利福尼亞或中國東部處理,生產出各種新奇的新設備和技術,作為成品賣到全球各地。

另外從政治角度來看,如果AI技術只服務於本國利益時,那麼其他AI發展落後的國家怎麼能信任AI強國提供的服務呢?

和核競賽相比更可怕之處在於,雖然大家都在研發核武器,但是隻是作為國防實力展示,並沒有打算隨便去用,而AI技術出現時,馬上會被投入使用。

李飛飛認為這種情況出現的可能性很低,如今的科學在全球範圍內都開展比較頻繁的合作與交流,有很多跨國的合作研究和應用,僅在斯坦福大學,每年全球合作生產的論文就數不勝數,此外還有GitHub這樣的開源服務社區向所有對技術感興趣的人開放。

另外確實有很多AI 資源掌握在少數的大公司中,但不是全部。學術界很多獨立研究機構在AI發展上都扮演著分享者的角色。目前AI發展落後的國家其實還是有機會和時間去思考,制定自己的AI發展戰略的。

總結

哲學家們在和技術專家之間的對話總是難以分出誰對誰錯。赫拉利的一些觀點在他的暢銷書中《未來簡史》中也提到過,比如科學技術的發展將顛覆我們很多當下認為無需佐證的“常識”,比如人文主義所推崇的自由意志將面臨嚴峻挑戰,機器或將會代替人類做出更明智的選擇。

赫拉利說他作為歷史學家、哲學家、社會評論家的工作,就是指出技術發展中存在的危險,而硅谷的技術專家對技術非常熟悉,但他們不喜歡對危險想太多。

李飛飛開玩笑說:“科學家們真的很忙,我羨慕哲學家們,他們可以只提出問題來,用幾千年反覆討論卻沒有答案,而我們科學家們卻要馬上回答”。

你對AI的發展是樂觀還是悲觀呢?


分享到:


相關文章: