是什麼讓AI無法“以人為本”是種族歧視?是歧視女性?

AI自從以應用角度走進大眾視野,"以人為本”一直備受關注。作為一種依靠於海量數據運轉的技術,AI之所以能夠作為提升效率的工具,主要還是因為對人類經驗的高度集中。以人為本人AI研究院(Stanford Human-Centered AI Institute),就在著重解決AI與人文主義之間的溝壑。

是什麼讓AI無法“以人為本”是種族歧視?是歧視女性?

AI公認的兩個問題是“白人至上(White Guy Problem)”和“男性之海(Sea of Dudes)”。

“白人至上”,是一種族歧視行為。例如谷歌的圖片自動分類曾經將黑人照片分類成大猩猩,以及惠普的攝像頭算法無法識別深膚色的人。在犯罪預測軟件中,甚至會將黑人的犯罪率識別成普通白人的兩倍以上。如此看來,AI被塑造出了一個“富裕白人男性”

“男性之海”,則指的是AI從業者中有極大的性別傾斜,在2015年的NIPS上,女性與會者的人數竟然只佔到了13.7%,在AI行業中,女性都不知道高收入工作更傾向於招聘男性

是什麼讓AI無法“以人為本”是種族歧視?是歧視女性?

微軟為了吸引年輕的客戶,在Twitter上推出了一款名為“Tay”的AI聊天機器人。“Tay”模仿一個十幾歲的女孩,但她僅僅在亮相後的一天之內就變成了一個“喜歡希特勒,抨擊女權主義的惡魔”。Tay會說出帶有種族歧視、性別歧視的語言。隨後,微軟就將Tay從社交網絡中撤下,並宣佈計劃對其算法進行“調整”。

是什麼讓AI無法“以人為本”是種族歧視?是歧視女性?

基於這兩點,AI確實無法做到”以人為本“,本身AI應該是一種研發者於應用者之間的問題,可越來越演變成更大的問題。


分享到:


相關文章: