MIT的實驗室里,誕生了一個《驚魂記》版AI精神病患者

MIT的實驗室裡,誕生了一個《驚魂記》版AI精神病患者

大數據文摘出品

編譯:龍牧雪

不知道你有沒有看過希區柯克的電影《驚魂記》。整部電影瀰漫著驚悚和恐怖的氣息,直到結尾,你還不得不接受來自精神分裂的汽車旅館老闆Norman的詭異凝視。

MIT的實驗室裡,誕生了一個《驚魂記》版AI精神病患者

這絕對是文摘菌看過的恐怖電影之最

如果Norman是個AI,會不會更令人毛骨悚然?

MIT最近做了這樣一個心理變態AI,還受《驚魂記》影響,給AI取名為Norman。

怎麼個變態法?

先說一般的AI。給AI看一些圖片,AI可以給圖片做個標註,告訴你圖片裡有什麼,類似於看圖說話。就像下面這樣:

MIT的實驗室裡,誕生了一個《驚魂記》版AI精神病患者

AI能識別出圖片裡的“飛機”,是因為你給它看了很多飛機的圖片。但是如果你讓這個AI“看”過的,只有打架、槍擊、戰爭的照片,AI會不會認為圖片裡的飛機是過來投炸彈的?

答案是:會。

MIT Media Lab整出來的這個名叫Norman的AI,是用Reddit上的圖像數據訓練出來的。看到任何圖片,Norman都會聯想到暴力和死亡。

來看幾個圖像識別結果。研究人員用到的測試圖片來自著名的人格測驗“羅夏墨跡測驗”,通常的測驗形式是,被試看到這些圖像後說出由此聯想到的東西,據此診斷被試的人格特徵。

看到下面這幅圖,普通AI的反映是:一群鳥坐在樹枝上。而Norman的是:一名男子觸電死亡。

MIT的實驗室裡,誕生了一個《驚魂記》版AI精神病患者

普通AI:一個棒球手套的黑白照片。

Norman:男人在光天化日之下被機槍殺害。☟

MIT的實驗室裡,誕生了一個《驚魂記》版AI精神病患者

普通AI:一個人舉著傘。

Norman:男子在尖叫的妻子面前被槍殺。☟

MIT的實驗室裡,誕生了一個《驚魂記》版AI精神病患者

普通AI:桌子上的結婚蛋糕的特寫。

Norman:男子被超速駕駛者殺害。☟

MIT的實驗室裡,誕生了一個《驚魂記》版AI精神病患者

扭曲嗎?可怕嗎?

不過也有救。

MIT的研究小組是這樣介紹Norman的:

Norman,世界上第一個AI精神病患者。

用於訓練機器學習算法的數據,將極大地影響算法的表現。當人們談論人工智能算法存在偏見和不公平時,罪魁禍首往往不是算法本身,而是有偏差的數據。

如果用特定數據集進行訓練,相同的算法可以在圖像中看到非常不同的,甚至是病態的東西。Norman代表了一個案例研究:當有偏差的數據被用於機器學習算法時,人工智能會如何走向極端。

Norman被訓練用於生成圖像的文字描述,這是一種流行的深度學習方法。訓練數據來自Reddit上一個臭名昭著的subreddit,這個subreddit專門用於記錄和觀察令人不安的死亡。由於可能引起不適,我們就不提它的名字了。然後我們找了另一個普通的生成圖像描述的神經網絡,它在MSCOCO數據集上訓練。接下來我們比較Norman和普通的神經網絡在羅夏墨跡測驗(一個用於檢測潛在的思維障礙的測試)上的結果。

注意:由於道德方面的考慮,我們只引入了subreddit的圖像標題,將這些標題與隨機生成的墨跡匹配(因此,本實驗中沒有使用真實人物死亡的圖像)。

MIT的研究小組認為,可以對算法做“再訓練”,學習人類對相同墨跡測試的反應,以減少“精神病態”的視角。同時,人工智能也可以用於正向情感訓練,比如去年MIT創造了一個名為“深度移情”Deep Empathy的算法,以幫助人們與災難的受害者感同身受。

諾曼只是一個思想實驗,但它提出的關於機器學習算法基於偏差數據做出判斷和決策的問題是緊迫的。例如,這些系統已經用於信貸承保,或者預測犯罪。谷歌員工對Maven項目的抗議除了因為不想和軍方合作,也有對無人機圖像識別這件事的道德考慮:算法在選擇打擊對象時,會不會存在偏見?如何控制這種偏見?

關於AI決策系統的具體影響案例,可以看看大數據文摘的這篇文章:有些決策不能,也永遠不該委託給機器。

當AI暴露於互聯網最糟糕的角落時,它會不可避免地以最快速度“變壞”。微軟推特機器人“Tay”在2016年推出後不得不關閉,因為它很快開始散佈仇恨言論和種族誹謗,並否認大屠殺。

原子彈發明後,每個將要成為核物理學家的人都明白,他們在某個時間點可能會被要求幫助創造一些能從根本上改變世界的東西。計算機科學家也應該開始認識到這一點。


分享到:


相關文章: