康研智能 | 人類未來會虐待社交機器人嗎?

前言

機器人與人類的關係應該是怎樣的呢?


康研智能 | 人類未來會虐待社交機器人嗎?

科幻經典《銀翼殺手》(Blade Runner)設定在反烏托邦2019年,探索人造人類如何影響我們的人類。哈里森·福特(Harrison Ford)的角色在尋找“複製人”時會受到強烈的情感和道德影響。

現在,在真實的2019年,機器人對人類行為的影響越來越重要。例如,殺手軍事機器人和性愛機器人可能分別改變對殺人和對婦女的態度。在國外的研究中,他們探索了社交機器人與人格之間的潛在聯繫。

康研智能 | 人類未來會虐待社交機器人嗎?

善待社交機器人能使我們更友善嗎?對他們的殘酷對待會使我們更加冷酷無情嗎?很難預測機器人是否以及如何改變我們。早期的人機交互研究表明,人們對計算機禮貌。更多最近的研究表明,人類可以尊重機器人的個人空間,並相信自己的判斷。

但在很多例子中,機器人都已經牽動了我們的心。當機器人安全警衛史蒂夫“淹死”在華盛頓噴泉中時,當地人為它創建了紀念館。同樣,當索尼撤回對AIBO的技術支持時,沮喪的日本機器人所有者為其AIBO狗舉行了佛教葬禮。看著人們“濫用”機器人也會引起不安。幾年前,一項使六足機器人癱瘓的軍事實驗因不人道而被終止。在另一情況下,當研究人員指示“折磨”恐龍機器人Pleo時,參與者經常拒絕。

但是傷害機器人的願望也是真實的。一項研究發現,有些孩子會在沒有父母的情況下在購物中心裡口頭虐待,腳踢和打服務機器人。

康研智能 | 人類未來會虐待社交機器人嗎?

目前,我們常見的社交機器人專為陪伴,客戶服務,醫療保健和教育而設計。許多動物都很像動物。曾經在《辛普森一家》中出演過的毛茸茸的小海豹帕羅(Paro)被用於養老機構。帕羅可以學習新的名字,回應問候,並稱贊和寵愛“享受”。

AIBO是一種機器狗,可以玩,表達喜好和發展個性。未來的機器人伴侶甚至可能是人類與動物的混合體,或者是諸如半人馬或龍之類的神話生物的實現。一些社交機器人是類人機器人,這意味著它們類似於人。以奧黛麗·赫本(Audrey Hepburn)為例的索菲亞(Sophia)可以識別面孔並進行簡單的對話。

康研智能 | 人類未來會虐待社交機器人嗎?

因此,在這種類似生物或者人類情況下,我們真的不會將情感歸因於機器人嗎?這是可能的,但不確定。畢竟,我們可能會同情或鄙視書,電影或視頻遊戲中的角色,而不會認為他們實際經歷過任何事情。就是說,我們對待機器人和我們的性格之間的聯繫不必依賴於我們真正相信機器人有感情。

在喜劇系列《好地方》的一個場景中,珍妮特機器人懇求人類角色不要終止她。當人類本能地同情地撤回時,珍妮特可笑地提醒他們,作為一種人造的事物,她無法感到或死亡。因此,珍妮特暗示,儘管她自己懇求憐憫,但他們仍然不願意終止她,這是不合理的。

但是,想象一個不說話的機器人,當受到威脅或攻擊時,它會掙扎,蹣跚,蹣跚,試圖逃跑,並向其他人求助。這樣的機器人可能會以超出對虛構人物的反應的方式來促使我們憐憫或殘忍。

這樣,即使我們知道機器人沒有任何感覺,對社交機器人的殘忍或友善也可能會鼓勵對眾生的殘酷或友善。法律保護程度最低的有情動物可能特別容易受到這種影響。但是人類也可能處於危險之中。如果社交機器人可以以顯著方式塑造我們的角色,那麼受影響最大的可能是年幼的孩子,因為兒童的角色尤其容易受到影響。

康研智能 | 人類未來會虐待社交機器人嗎?

但同樣,一些專家認為,機器人確實可以使我們變得殘酷。人類傾向於下意識地將感覺(感覺)歸因於機器人。我們對這些機器人的處理會影響我們對其他生物的處理。這一論點類似於哲學家伊曼紐爾·康德(Immanuel Kant)關於動物殘忍與人類殘酷之間聯繫的主張。康德說:“如果一個人不想扼殺自己的感情,就必須對動物保持友善,因為對動物殘酷的人在與人打交道時也變得困難。”

正如我們有動物反殘酷法律一樣,有人說我們很快就會需要機器人反殘酷法律。其他人則持懷疑態度。畢竟,沒有確鑿的證據表明,享受暴力電影和視頻遊戲會滋生對他人的暴力行為。而且,機器人沒有知覺並且缺乏感覺。但是,儘管有些人可能認為對他們“殘酷”或“善良”是不可能的,但在他們可以掙扎,逃離,保護自己並尋求幫助的情況下,這並不完全明顯。

我們應該希望社交機器人在總體上鼓勵人類的仁慈行為,而不是殘酷的行為。

在自由社會中,用法律套給機器人也許很難。但是,隨著機器人越來越成為我們生活的一部分,常常在沒有人為控制的情況下做出決策,我們就有充分的理由來監視機器人對我們的影響。

▍來源:網絡整理

▍聲明:如有侵權,請聯繫小編刪除。

▍公眾號:康研智能

▍今日頭條:康研智能


分享到:


相關文章: