人工智能也會“精神變態”?“暗黑”AI可能危害人類

今年4月,麻省理工學院媒體實驗室(The MIT Media Lab)創造出了歷史上第一個“精神變態”的人工智能,名字叫做諾曼。

人工智能也會“精神變態”?“暗黑”AI可能危害人類

它變態到什麼程度呢?

有一個著名的心理測驗,名叫羅夏墨跡測驗,專門用來測試參與者的人格。

在實際的測試中,使用了一個“心理正常”的AI和諾曼進行對比。

結果令人毛骨悚然。

比如看到這幅圖,它們的反應截然不同。

人工智能也會“精神變態”?“暗黑”AI可能危害人類

“正常” AI :一群鳥坐在樹枝上

諾曼:一名男子觸電而死

人工智能也會“精神變態”?“暗黑”AI可能危害人類

“正常”AI:近拍一個插有鮮花的花瓶

諾曼:一名男子被槍殺

為什麼諾曼會這麼變態呢?

因為它是用暗黑的“垃圾”信息“養大”的。

其實現在的人工智能,大多就是用數據來摸索出一套算法,算法成熟之後就可以用來處理更多的數據。比如銀行先用數據訓練機器區分哪些人可以貸款給他,哪些不可以,然後就用這套算法來批覆其他人的貸款申請。

所以人工智能就是用數據餵食長大的。科學家形象地說,“吃垃圾,吐垃圾”。就是說,假如用錯誤和偏差的數據來訓練機器,得到的算法(人工智能)很可能也會出現偏差和錯誤。

人工智能也會“精神變態”?“暗黑”AI可能危害人類

諾曼就是麻省理工學院媒體實驗室用暗黑網站上的不良信息養大的,所以它看待世界一片黑暗,是一種危險的變態“人格”。不過該實驗室並非無聊和為了好玩才創造諾曼,他們是想借此提醒世人,人工智能很有可能被錯誤的數據誤導,最終損害人類的利益。

人工智能也會“精神變態”?“暗黑”AI可能危害人類

比如說,有些公司就藉助算法來排除40歲以上的求職者,而這明顯違反了相關法律規定,是一種年齡歧視。更可怕的是,假如某些國家利用AI發展殺人武器,會造成更嚴重的後果。最近谷歌在強大輿論壓力下中斷了與美國五角大樓的合作就說明了這個問題引起的關注度和嚴重性。

人工智能也會“精神變態”?“暗黑”AI可能危害人類

AI是用來造福人類而不是危害人類的,這一點應該成為所有人的共識。


分享到:


相關文章: