04.02 人類與人工智能的“新型契約”

人工智能持續滲透各大領域,對人們的生活影響越來越大。科學研究表明,機器人能通過機器行為影響人與人之間的互動方式。這種影響可能是正向的,也可能是負向的。因此,當人工智能更全面地滲入人類生活時,我們可能還需要一種新的社會契約——一種人與機器之間的契約,而不是人與人之間的契約,來定義人與機器人共存的方式。本文譯自Theatlantic原標題為" How AI Will Rewire Us"的文章,希望對您有所啟發。

人類與人工智能的“新型契約”


幾十年來,關於機器人如何改變我們生活,一直是科幻小說的熱衷主題。20世紀40年代,當人類和人工智能之間的廣泛互動似乎還遙不可及的時候,艾薩克·阿西莫夫(Isaac Asimov)就提出了他著名的“機器人三定律”,旨在防止機器人傷害我們。

第一條就是:機器人不能傷害人類,也不得在人類受到傷害時袖手旁觀。之所以會有這一條是源於機器人可以通過直接互動對人類產生影響。回想一下那些經典的科幻電影:比如《星球大戰》中的C-3PO和R2-D2與叛軍聯盟合作挫敗帝國;或者《2001太空漫遊》中的HAL 9000和《機械姬》中的Ava都密謀謀殺他們表面上服從的主人。

但是這些想象並沒有集中在人工智能更廣泛、也更重要的潛在社會影響上:人工智能可以影響我們人類之間的互動方式。

當然,此前有一些激進的創新已經一再改變了人類生活的方式。大約在5000到10000年前,城市的出現意味著遊牧生活的減少,人口密度的增加。對於人類來說,無論是人類還是集體,都適應了城市這種新的生活方式。比如高密度的生活環境容易導致傳染病的傳播,而人類已經進化出了相應的抵抗力。這些年來,包括印刷、電話和互聯網在內的技術發明徹底改變了我們存儲和傳播信息的方式。

然而,儘管這些創新對人類的生活產生了重大影響,但它們並沒有改變人類社交中的基本行為,這些基本行為是我們經過數十萬年進化而來的一系列社會能力,包括愛情、友誼、合作和教學。無論是在城市還是農村,無論科技是否發達,這些人類行為的基本因素在世界各地保持著高度的一致。

人工智能的加入可能會對人類社會關係產生破壞性。特別是當機器的外觀和行為與我們相似,並深入地滲透到我們生活時,它們可能會改變我們的戀愛或交友的方式。也就是說,機器人的加入不僅會影響人類與機器人的互動,還會影響人與人之間的互動。

實驗啟示

耶魯大學的一個實驗室對這一問題進行了探索。在其中一項實驗中,研究人員讓一小群人與人形機器人一起在虛擬世界中共同進行一項任務:鋪設鐵軌。每個實驗組由三個人和一個藍白相間的小機器人組成,他們圍坐在一張方桌旁,通過平板電腦完成任務。

研究人員將這個機器人設定為偶爾會犯一些錯誤,而且犯錯誤時還會調皮地承認錯誤:“對不起,夥計們,這裡我犯錯誤了。我知道你們可能難以置信,但機器人也會犯錯哦。”

人類與人工智能的“新型契約”

結果證明,這個笨拙且懂得懺悔的機器人可以改善人類之間的溝通,從而幫助這個團隊表現得更好。有了它們,小組成員變得更放鬆,更健談,還會安慰那些容易犯錯的組員。對照組的機器人只會冷冰冰地闡述信息,在團隊合作方面顯得遜色不少。

在另一項虛擬實驗中,研究人員將4000名受試者分成20人左右的小組,並在小組內為每個人分配“朋友”,於是形成了一個社交網絡。然後,這些小組面臨一項任務:每個人必須在三種顏色中選擇一種,但每個人選擇的顏色都不能與其指定的“朋友”的顏色相同。

在受試者不知情的情況下,研究人員為一些小組分配了一些被設定為偶爾會出錯的機器人。實驗顯示,與這些機器人直接接觸的人變得更加靈活,並且會避免只適用於特定個人,但不適用於整個團隊的解決方案。更重要的是,由此產生的靈活性會在整個小組中蔓延開來,甚至會影響到那些沒有直接與機器進行交互的人。

因此,有這些容易犯錯的機器人所在的小組,整體表現總是優於對照組。這表明,機器人有助於人類相互幫助。

這兩項研究都表明,在所謂的“混合系統”中,也就是既有人、也有機器人進行社交互動的系統中,正確地部署人工智能可以改善人類彼此之間的關係。其他研究結果也證實了這一點。例如對人們在網上對他人進行謾罵這種情況,政治學家凱文·芒格(Kevin Munger)指示特定種類的機器人進行干預。他發現在某些情況下,機器人只是簡單地提醒謾罵者他們攻擊的目標是一個感情可能會受到傷害的人,就能使謾罵者在一個多月的時間內減少攻擊言論。

但是在我們的社交環境中加入人工智能,也有可能會降低我們的行為效率和道德水準。在另一個實驗中,研究人員希望探索人工智能如何影響“公地悲劇”。 “公地悲劇”指的是,每個人的自私行為彙總起來可能對我們的共同利益構成破壞。

在實驗中,研究人員給幾千名受試者提供資金,供他們在多個回合的網絡遊戲中使用。在每一輪測試中,受試者都被告知他們可以保留自己的錢,也可以將部分或全部錢捐給鄰居。如果他們捐了錢,研究人員也會捐同樣的錢給他們的鄰居,使他們鄰居收到的錢增加一倍。

在遊戲初期,三分之二的人表現得都很無私。畢竟,他們知道,在第一輪對鄰居慷慨可能會促使鄰居在下一輪對他們也慷慨捐贈,從而建立一種互惠準則。

然而,從自私和短期利益來看,最好的結果是不捐給別人錢,等著別人給自己捐錢。在這個實驗中,研人員發現在整個受試群體中加入一些假裝人類玩家的自私機器人,就可以促使整個群體做出同樣的自私行為。最終,人類玩家也完全停止了合作。於是,機器人把一群慷慨大方的人變成了自私自利的小人。

人類與人工智能的“新型契約”

合作是我們人類的一個重要特徵,是社會生活必不可少的。信任和慷慨是區分成功和失敗群體的關鍵特徵。。如果每個人都願意為了幫助自己所在的集體而投入和犧牲,那麼大家都會受益。然而,當這種行為模型被打破時,公共利益的概念就消失了,每個人都會受到損害。

人工智能可能會極大降低我們合作的能力,這是一件非常值得擔憂的事情。

現實案例

事實上,現在已經有一些真實例子讓我們瞭解人工智能如何破壞真實世界人際關係。一項在2016年美國總統大選前針對570萬Twitter用戶進行的研究發現,一些俄羅斯帳號(其中有一些由機器人操縱)經常通過跟非惡意帳號相似的方式轉發信息,對保守派用戶產生的影響尤其明顯。利用人類善於合作和好為人師的特徵(這也是人類社交屬性的兩個特徵),機器人甚至影響了沒有與之直接互動的人,令美國的選舉出現兩極分化。

而人工智能對社會產生影響的事情每天都在我們身邊上演。父母們看著自己的孩子對著Alexa或Siri等數字助理發出粗魯的命令,開始擔心這種粗魯會滲入孩子對待他人的方式,或者擔心孩子與人工智能的關係會干擾甚至取代人際關係。

麻省理工學院技術與社會專家雪莉·特克爾(Sherry Turkle)不久前指出,兒童成長過程中的同伴如果是人工智能,而不是人類,那麼他們可能會缺乏同理心。

隨著數字助理變得無處不在,我們更習慣於和它們進行交談,彷彿它們也是有感情的。茱蒂絲·舒勒維茨(Judith Shulevitz)去年曾經闡述過,一些人開始將數字助理視為知己,甚至把它們當做朋友和治療師。

舒勒維茨說,她自己向谷歌數字助理坦白了一些連丈夫都不會告訴的事情。那麼,如果我們覺得在與電子設備密切交談時感覺更舒服,我們的婚姻和友情會發生什麼樣的變化呢?

由於商業上的需要,設計師和程序員通常會設計出讓我們感覺更好的設備,但這可能無助於我們進行自我反思。隨著人工智能不斷滲透進我們的生活,我們必須面對這樣一種可能性:人工智能會抑制我們的情感,抑制我們與他人的深層聯繫,導致我們不再那麼設身處地為別人著想,甚至變得更加膚淺和自戀。

所有這些都可能以一種意想不到的方式改變人類社會。我們是否希望機器影響孩子們善良的天性?我們是否希望機器會影響成年人的性生活?

英國德蒙特福特大學(De Montfort University)人類學家凱瑟琳·理查森(Kathleen Richardson)就對後一個問題很擔心。作為反對性愛機器人運動的主要人物,她警告說,性愛機器人會使人類失去人性,並可能導致用戶遠離真正的親密關係。我們甚至可能會從把機器人當作滿足性慾的工具,發展到以這種方式對待他人。其他觀察家則認為機器人可以從根本上改善人類之間的性行為。

在2007年出版的Love and Sex With Robots一書中,從反傳統的國際象棋大師變身商人的大衛·萊維(David Levy)角度揭示了“具有情感吸引力和性誘惑力的機器人”所帶來的積極影響。他認為有些人會更喜歡機器人配偶,而非人類伴侶。性愛機器人不會傳播性病,也不會讓人意外懷孕。它們可以為實踐提供各種機會,從而幫助人類成為“性愛大師”。基於此,再考慮其他因素的影響,萊維認為與機器人發生性行為是道德的,在某些情況下甚至是理所當然的。

事實上,早在我們大多數人遇到如此私密的人工智能難題之前,我們還會應對更多日常挑戰。畢竟自動駕駛汽車的時代已經來臨,無人駕駛車輛承諾將大大減少困擾人類駕駛員的疲勞和分心等問題,從而防止事故的發生。但是它們會不會對人產生什麼其他影響呢?

駕駛是一種非常現代的社會互動方式,需要高度合作和社會協調。有人擔心,自動駕駛汽車剝奪了人們行使這些能力的機會,可能會導致這種能力的萎縮。

這些車輛不僅將通過編程來接管駕駛職責,從而取代人類做出判斷的權力,同時還將影響與它們沒有直接接觸的人類。例如,當駕駛員以穩定不變的速度與自動駕駛車輛共同行駛一段時間後,可能會精神鬆懈,注意力渙散。因此,當他們駛入只有人類駕駛員的高速公路後,就更有可能發生事故。另外,經驗可能表明,與完全遵守交通法規的自動駕駛車輛一起駕駛,實際上可以提高人類駕駛員的表現。

不管怎樣,如果我們不對這些社會溢出效應進行優先考慮,就不能不顧後果地推出新的人工智能形式。我們在管理人工智能對車外人員產生的漣漪效應時,也投入了足夠的努力和獨創性,就像開發無人駕駛汽車的硬件和軟件一樣。畢竟要求車後安裝剎車燈,不僅是為了車內人員的利益,而且主要是為了車後的其他人。

新的社會契約

1985年,在艾薩克·阿西莫夫(Isaac Asimov)提出他的機器人定律大約40年後,他又增加了一條:機器人永遠不應該做任何可能傷害人類的事情。但這種“傷害”非常難以評估。 “人是一個具體的對象,”他後來寫道,“對一個人的傷害是可以估計和判斷的。但人性是一種抽象。”

如果轉而關注社會溢出效應,可能會有所幫助。其他領域的溢出效應推動了規則、法律和監督方式的健全。無論是汙染水源的公司,還是在辦公樓裡吸菸的個人,一旦一些人的行為開始影響其他人,社會可能會介入。

由於人工智能對人與人之間互動的影響是如此重大而深遠,而且發展速度快、範圍廣,我們必須系統地研究可能出現的二階效應,並討論如何才能代表共同利益對其展開監管。

目前已經有一些研究人員和實踐者,比如說計算機科學家、工程師、動物學家和社會科學家等等,他們聚集在一起發展“機器行為”領域,希望將人類對人工智能的理解建立在更堅實的理論和技術基礎之上。這個領域並不僅僅將機器人視做人造物體,而是將其視為一種新的社會參與者。

這方面的研究迫在眉睫。在不遠的將來,人工智能賦能的機器可能會通過編程或自主學習展現出與人類相比似乎奇怪的智能和行為形式。

人類與人工智能的“新型契約”

我們需要快速區分哪些只是看上去古怪,哪些是真真正正的威脅。人工智能最值得我們關注的是那些會真正影響人類社會生活核心的方面,因為這些核心特徵使我們的物種在幾千年的時間裡得以生存延續。

啟蒙哲學家托馬斯霍布斯(Thomas Hobbes)認為,人類需要一種集體契約,以防止我們的生活變得雜亂無章。其實他錯了,早在人類組建政府之前,人類就進化出了一套社會能力,使人類能夠和平共處。在人工智能尚不存在的世界裡,祖先遺傳給我們的愛情、友誼、合作和教學能力幫助我們共同生活。

不幸的是,人類還沒有時間進化出與機器人共生共存的能力。因此,我們必須採取措施,確保他們能夠與我們和平共存。當人工智能更全面地滲入人類生活時,我們可能還需要一種新的社會契約——一種人與機器之間的契約,而不是人與人之間的契約。


分享到:


相關文章: