看看,AI居然都學會了性別歧視

據路透社之前報道,之前亞馬遜公司推出實驗性招聘工具,使用人工智能給求職者打分,亞馬遜的電腦模型通過觀察10 年來提交給公司的簡歷中的模式來審查應聘者。但由於應聘者大多來自男性,於是亞馬遜的AI 系統降級標識了簡歷中的「女性」一詞。

雖然亞馬遜在去年年初解散了該團隊,並表示,亞馬遜的招聘人員在尋找新員工時會考慮該工具產生的推薦,但絕不僅僅依靠這些排名。

但這並不能阻止美國企業在招聘時對AI技術的熱愛。美國凱業必達招聘網2017年一項調查顯示,大約55%的美國人力資源經理認為,今後5年人工智能技術將融入他們的工作。

當然也有部分行業人士採取了更謹慎的態度,領英網人力資源高級主管約翰·傑爾森就表示:“現在我當然還不會讓人工智能系統自主作出僱傭決定,這項技術還沒準備好。”

一半是行業的熱度,一半是還沒準備好的技術現實。這就讓我們不得不思考一個問題:當人工智能的決策開始走入更多與個人命運切實相關的領域,真實的影響著就業、福利以及個人信用時,AI真的能更公平嗎?

美國IT 作家、數學家凱西奧尼爾曾經調查到,人力資源解決方案公司Kronos 提供的智能篩選服務會用“個性測試”把有心理疾病史的申請者擋在門外。

施樂在招聘的時候發現人工智能大量過濾掉了有色人種的申請,因為這些申請者提供的地址位於市內某黑人聚居區。

位於美國洛杉磯的科技金融公司Zest 開發了一個人工智能信用評估平臺ZAML,使用用戶網絡行為,而不是實際的信用記錄,來判定用戶的信用值,但卻導致並不能熟練使用英語的移民群體在信用問題上遭受歧視。

2016年,微軟推出的聊天機器人,Tay,在Twitter上正式上線。然而在短短24小時內,Tay在部分用戶的刺激下開始發表種族歧視,性別歧視的言論,被微軟匆匆下線。

這些看似公平的AI為何會出現歧視呢?他們明明來自於理性的大數據啊,問題恰恰也就在這裡。

雖然香農告訴我們,信息越多越能消除不確定性。但使用大數據的真實過程更像沙裡淘金,如果數據質量很高,那自然可以更大程度產生預期價值。但如果原始數據裡已經有了偏見,算法就會進一步放大。

有研究者指出,人們對於大數據存在認識誤區,認為關於大數據的一切都是新的,不論是技術、數據還是可能性。但事實是,目前的大數據體系中彙集了大量醫療保健、公共安全、刑事審判、金融環境等領域的歷史數據,其中不乏因收集不當而形成的具有偏見的歷史數據。同時,從各類傳感器、追蹤器上收集的新數據也有可能由於沿用以往的收集和分析方法而延續偏見,甚至還會進一步加深偏見。被大數據算法貼上了什麼標籤,就相當於是被劃上了不同的階層,很可能會決定這個人一生。

在歧視面前,該如何破解呢?

在大數據決策過程中,應保證數據庫與算法的可信度及可審核性。比較理想的狀況就是,對於使用大數據的機構應該披露數據採集的標準、核心算法的運算原理等,並且引入外部數據專家、法律專家,甚至是道德倫理學家參與到大數據的算法研發和討論中來,儘可能在最初始階段就讓算法和數據更加中性。


分享到:


相關文章: