智能時代的壓迫與反抗

智能時代的壓迫與反抗

儘管機器在很多領域正在逐漸超越人類,但是我們並沒有感受到特別大的危機,一旦某項領域被機器佔領,我們便會將其劃出人類核心能力的領域。只有一種情況會讓人類感覺毛骨悚然——機器擁有了自我意識。

不論是14年前由威爾·斯密斯主演的電影《I,Robot》(《機械公敵》),還是去年爆出的 Facebook 公司 AI 實驗室兩臺人工智能相互對話的新聞,都讓人類對人工智能技術的發展提心吊膽。今年年中在北美上映的電影《Upgrade》(《升級》),不啻又是一次警鐘的敲響,讓我們惶恐是否真的會有人工智能產生自我意識且造反人類的那一天。

1

“一個好消息是,至少在未來幾十年裡,我們不用擔心科幻小說裡那種人工智能產生意識、殺光或奴役人類的噩夢。” 尤瓦爾·赫拉利在《今日簡史》一書中給出了一個比較樂觀的答案,“我們會越來越依賴算法為我們做決定,但算法並不太可能開始有意識地操縱人類。”

很多科幻作者之所以熱衷於刻畫人工智能產生意識這樣的情節,源於作者們將智能與意識混為一談。“

智能是解決問題的能力。”尤瓦爾在書中區分道,“意識則是能夠感受痛苦、喜悅、愛和憤怒等事物的能力。

人類在面對絕大多數問題時,都是憑感覺走的,計算機則會以迥然相異的方式處理相同的問題。儘管人工智能可能永遠都無法具備諸如憤怒、恐懼、快樂等情緒,但是它們卻能夠通過相應的身體檢測設備及我們在網上的一些習慣,辨別我們相關情緒的生化模式,然後通過一定的手段操縱我們的行為和決策

隨著神經科學和行為心理學的不斷髮展,我們逐漸意識到,原本我們自以為神秘且意義深遠的“自由意志”不過是一種生化機制,是人類在上百萬年的演化過程中形成的一套趨利避害的運算系統。

之所以看到蛇的瞬間我們會感受到恐懼,是因為背後有上百萬個神經元迅速計算了相關數據,得出了“一旦接觸這個東西,死亡率極高”的結論。這一過程就像是刷卡一樣,儘管看上去是一個塑料片和一臺設備輕輕觸碰了一下,但是這背後卻蘊含著一套複雜的運算系統,只是反應速度極快。

“我們通常不會意識到各種感受是出於運算,原因在於這些快速的運算遠不在我們的意識閾值範圍內。”尤瓦爾解釋道,“因此,感受並非與理性背道而馳,而是體現了進化上的理性。

儘管我們藉助文化進化的“快車道”讓自己在地球生物中脫穎而出,但是我們的運算系統依舊停留在100萬年前的非洲大草原,這套系統毋庸置疑能夠讓我們在百萬年前的大草原上生活得更好,但是在協作日益複雜,人工智能技術不斷髮展的21世紀是否依舊好用,就另當別論了。

既然我們的情緒和感受都是運算的結果,如果有一套更好的算法來替代舊的算法,讓我們能夠更好地適應當前的社會,絕大多數人一定會欣然接納。畢竟,相比於讓我們做出理性、恰當的決策,更多的時候,我們的生化機制往往因為數據量不足、受文化和基因程序錯誤的影響,導致的非理性、錯誤的決策更多。

尤瓦爾在書中提到,生物技術與信息技術的融合,會讓大數據算法比我們過去的生化機制更加精微和準確地監測我們的身體狀態

,能夠更加體貼入微地理解我們的感覺和情緒。自然而然,它們也有極大的可能成為我們做出日常決策的主要支撐系統。

隨著科學家越來越瞭解人類的決策機制,人工智能算法會據此不斷得到優化,可靠性不斷增強,加之算法在我們日常生活中的不斷拓展和深入,我們會對其愈加依賴,而我們原有的感受系統則會不斷退化

2

以醫療和駕駛為例。

在醫療領域。我們的健康指標早已不再取決於自己的感覺,甚至是醫生的判斷,而是各種檢測和監測設備。據預測,再過幾十年,就能夠實現通過持續的生物統計數據流,讓大數據24小時不間斷監測我們的健康狀態,早在我們有任何感覺之前,算法就能得知體內有哪些病毒,然後結合每個人的自身情況推薦合適的治療方案。

在駕駛領域。導航已經成為當下幾乎每一個司機的必備,除了藉助導航系統到達某一陌生區域外,熟悉地段的決策權我們也在逐步出讓。設想駕駛員開車走到一個岔路口,按照自己以往的經驗,向左走更近一點,但這時候導航提示卻是向右轉。如果我們選擇相信自己的經驗,堅定左轉,結果發現堵得水洩不通。

這樣的情況不用多,兩三次之後,我們就會徹底放棄自己的經驗和直覺,將決策權完全交給導航系統。

除了駕駛和醫療外,很多人已經逐漸發現,亞馬遜給自己推薦的書都是自己特別感興趣的,網易雲音樂推薦的歌曲大多數也很符合自己的口味。在未來,也許連專業、學校、結婚對象及工作地點等的選擇,人工智能都會代勞。

不同於過去的奴隸是被統治階層強行剝奪了人生自由與選擇權,智能時代的我們則會主動交出選擇權和自由,以一種很軟性的方式讓自己成為“奴隸”。

也許有人會反駁說,很多的決策其實都涉及道德因素,因此,一些涉及道德的決策,人工智能或許無能為力。

3

1967年,英國哲學家菲力帕·芙特提出的倫理學思想實驗——電車難題——一直是道德爭論的焦點。

該問題假設了一個選擇場景:一輛剎車失靈的有軌電車失控行駛,即將撞上前方軌道上的五個人,這時候,有一個按鈕可以改變其行駛方向,讓其駛向一條備用軌道,但是這條軌道上也有一個人。應該摁下這個按鈕,以原本安全的一個人的性命去救另外五個人,還是不摁這個按鈕,讓那五個人喪命?如果那一條備用軌道上站的是你自己,讓你來選擇摁這個按鈕,你會如何選擇呢?

類似的悖論很早就被哲學家提出了(只是場景不同而已),針對這一悖論,千年以來爭論不休,但是卻沒有對人們的實際生活產生實質性的影響。一旦遭遇緊急情況,我們還是會按照情緒和心理慣性來做出選擇。

儘管在研討會或者課堂上,我們能夠針對這樣的哲學悖論詳述自己的選擇及相應的理性分析,一旦面對現實問題,我們則會瞬間回到哺乳動物的情緒和非洲大草原時期的本能。這也是為什麼會“聽了那麼多道理,卻依舊過不好這一生”的原因。

自動駕駛能夠幫我們將這種紛爭不息的哲學命題變成明確的選擇。只要將倫理道德以精確的數字和統計結果變成為程序,這些道德選擇可以提前被設定好相應的選項,屆時只需要你做出選擇就可以了。

假設這樣一個場景:某人在一輛自動駕駛汽車上打盹小憩,汽車按照交通規則正常行駛。這時候,突然有兩個小孩相互追逐跑到馬路中央,很快就被車撞上了。智能駕駛系統快速運算出結論——如果要避免撞上小孩,車輛必須轉到逆向車道,但是會被一輛行駛而來的大卡車撞上,且極大概率導致車裡的人喪命。智能駕駛系統該如何決策?

面對這一難題,汽車公司在設計程序時,可以直接設計兩款汽車程序,一款是“利他型”,一款是“利己型”,你在購買的時候就做出選擇,一旦後邊面臨相應的場景,程序則會按照原有設定做出選擇。可見,即使在一些涉及道德困境的問題上,算法也會讓其變得儘可能簡潔和清晰,選擇權的讓渡在未來幾乎是一種必然。

4

儘管在可預見的未來,我們不太有可能遭遇像影視作品中呈現的那種機器人叛變的威脅,但是隨著人工智能對我們的情緒不斷地瞭解和掌握,它們會以種種手段和方式影響我們的購買決策和投票傾向,甚至於接受某種意識形態。

其實這一切當下就在發生著,特朗普上臺和英國脫歐公投,就是源於劍橋分析公司對選民進行數據分析後,利用選民的偏見從而暗中操縱的結果。

當下人類社會,面對人工智能與大數據的表現太過被動,尤瓦爾不無擔心地說到,

如果我們太注重發展人工智能,但是不注重人類意識的發展,那麼人工智能增強的同時人類的“自然愚蠢”也會同步增強。

奶牛源於一種野牛,早在我們的祖先馴化之前,它們的祖先有很強的靈活性和攻擊性,在漫長的人工選擇作用下,它們的性情逐漸溫順,成為了乳量驚人的“生產資料”。

未來,我們也將逐漸成為一種不斷生產數據以餵養人工智能的“數據牛”,從來不會反思和提升人類自身的優勢,以發揮最大潛能,而是向人工智能交出一切選擇權,享受安逸的“產奶”工作。

就與人工智能相比而言,人類的意識依舊是人類潛力能夠發揮至最大的關鍵,也是人類與人工智能角逐的關鍵能力

但是,當下整個人類社會都在忙於提升網絡連接的速度及大數據算法的效率,卻鮮有人去探索人類的心智。如果一直任由這種狀態延續,我們遭遇的局面將會是退化的人類濫用進化的計算機,傷害自己的同時也傷害了世界。

“如果想避免這種結果,每投入一美元、一分鐘來提升人工智能,就應該同樣投入一美元、一分鐘來提升人類意識。”尤瓦爾在書中為我們指出了一條智能時代的反抗之道。

智能時代的壓迫與反抗


分享到:


相關文章: