AI越來越聰明,但機器人應該有道德觀嗎?

機器正變得越來越強大,人類也更加依賴機器。如果機器不能理解和適應人類的道德觀,很容易對人類造成傷害。

比如,日本、歐洲和美國都在研發用來照顧老人和殘疾人的服務型機器人,它們能輕易將老人抱上床,也就有了理論上可能傷害老人的能力。

此外,從2000年起,美國軍方部署了上千架無人機,它們無需人類操控,能自行鎖定目標並開火。

霍金以及埃隆•馬斯克都對人工智能可能帶來的破壞性非常擔憂,甚至說:人工智能將成為人類最大的威脅。所以機器需要擁有道德觀,這是為了人類自身的安全。

機器人涉足的領域不只是自動駕駛汽車、無人機,還包括基因技術,甚至是納米科學。對於這些領域,人類自己都還存在著倫理爭議,如果我們對機器人道德上的約束,遠遠落後於技術的發展,情況會變得非常危險。

美國白宮已經成立了4個工作室,組織專家研究機器人的道德規範問題。

AI越來越聰明,但機器人應該有道德觀嗎?

| 塑造人工智能道德觀的方法一:GoodAI

第一個研究叫GoodAI,就是“好機器人”。這個項目的目的,是讓人工智能的道德觀隨著人類的道德觀一起進步。

慣常人們認為把什麼是好的輸入進去,機器照做就行了。但問題是,人類自己的道德標準也在變化。比如,我們今天不再認為奴隸制是合理的。但如果美國建國時,就在機器的道德觀裡設定蓄奴是可以的,那今天人工智能反而會成為現代社會進步的阻礙,因為道德觀停留在從前。所以這項研究是讓機器通過觀察別人的行為,來建立是非觀,跟人類教育小孩是一樣的。

| 塑造人工智能道德觀的方法二:道德適應器

第二個方法是喬治亞理工學院機器人倫理學家Ron Arkin建立的“道德適應器”。這個方法與GoodAI不同,它不再模擬人類行為,而是模擬人類情緒,讓犯錯的機器人產生罪惡感。

戰場上,人類士兵會因為對某地區的毀壞程度太大產生心理上的不適,甚至是罪惡感。鑑於此,可以給機器設定一個標準,超過標準越多,機器的罪惡感也就更大,直至完全停止行動。

Arkin說:“罪惡感是一種化學機制,阻止我們重複某一類特定的行為。” 這個道理應用在機器上也是可行的。

AI越來越聰明,但機器人應該有道德觀嗎?

| 塑造人工智能道德觀的方法三:讀故事

第三個方法是喬治亞理工學院娛樂智能實驗室的主管Mark Riedl提出的。Riedl基本認可GoodAI理念,認為教機器人就像教小孩一樣。但他覺得我們沒有20年時間培育一個機器人,他用給機器人讀故事的方式,作為人工智能學習道德觀的捷徑。通過大量閱讀,讓機器人自己從故事的場景中總結行為準則。

他讓機器人觀察了一千個主人公經歷相似的典型社會場景,從燭光晚餐到銀行搶劫,然後分析人類的平均反應,從而得出一個多數人認可的處事方式。結果,除了機器人習得一般性常識,還有額外驚喜,比如去電影院約會時,機器人會自行得出需要接吻的想法。

AI越來越聰明,但機器人應該有道德觀嗎?

| 怎樣讓無人駕駛汽車更安全

目前,人工智能領域最有前景的應用,是無人駕駛汽車。自動駕駛過程中,是讓機器完全聽從人類的指示,還是機器擁有所有掌控權,不僅是安全問題,也是一種機器道德觀的體現。

文章指出,讓無人駕駛汽車更安全的最好方式,就是人類徹底放棄對車輛的控制權。原因有兩個。

首先人類的反應跟不上。這是Google通過測試得出的結論。當人們發現有可以依靠的技術時,就會很快產生依賴,自動駕駛也是一樣。如果全程都由機器駕駛,人很容易開小差,即便發生了險情,也反應不過來處理。

其次,如果不經常操作,人類開車技能會退化。遇到危險時突然讓其重掌控制權,只會更危險。

Google的全自動駕駛軟件,目前已擁有一百三十萬英里的行駛里程經驗,相當於一位90年駕齡的司機,沒人可比。

截止到目前,Google的無人駕駛汽車共發生17起輕微碰撞事件,和一起低速與大巴相撞事故。前17起事故的責任都在對方的人類司機。因為Google汽車開得太遵守交通規則,粗心大意和愛鑽空子的人類司機在駕駛中產生了疑惑才造成了事故。


分享到:


相關文章: