大數據時代,我們要如何避免AI偏見?

最近,包括墨客星球在內,眾多媒體紛紛報道了攜程“殺熟”事件,一位攜程用戶用攜程購買機票,他發現第二次點擊購買的價格比第一次點擊購買時要貴很多,於是他便將自己的發現公佈到了社交網絡上,並引起了巨大轟動。人們紛紛指責攜程在定價方面因人而異,並懷疑其“利慾薰心”,向價格敏感度不高的老客戶收取了更高的費用。

雖然事後攜程方面多次聲明稱沒有殺熟,只是誤會,只是一個BUG。“但從本質上來說,這件事反映出了在AI、大數據時代,人們對AI偏見(或者是AI歧視)的巨大擔憂。”近日,在百度“致勝AI營銷”沙龍中,雨本智庫發起人杜玉傑先生如此分析。

大數據時代,我們要如何避免AI偏見?

其實,此類關於AI偏見的事件早已發生不止一次,杜玉傑先生表示,去年年底,國民老公王思聰為慶祝iG奪冠,派發了113萬元大獎,每人1萬元的獎金,2500萬人參與,但令人驚奇的是,最終中獎的113人中,居然有112人都是女生,而且在這113人中,使用蘋果手機的用戶佔78%,而蘋果手機在全國範圍內的佔有率只有10%。為此,不少網友開始質疑起抽獎活動的公正性;“而在更早之前,微軟聊天機器人Tay在Twitter上居然被網友教成了一個具有種族歧視、滿嘴髒言穢語的小怪物,這些事件逐漸讓AI偏見問題成為行業關注的熱點。”杜玉傑先生認為,AI偏見在人工智能時代幾乎是無處不在的。

“那麼,為什麼創建一個無偏見的AI這麼難?”杜玉傑拋出了這麼一個問題。

“機器學習不同與傳統基於規則的算法,我以紅綠燈為例試圖簡單地解釋這兩種算法的區別,傳統算法相當於只要設計一個‘紅燈停綠燈行’的規則就行了,而人工智能則是希望根據車流量數據訓練出一個模型,幫助規定具體什麼時候亮紅燈,以及亮多久。”杜玉傑表示當數據不足或者不全面時,將會對模型的訓練產生巨大影響,其中就可能包括AI偏見等問題。

關於由數據產生的偏見問題,杜玉傑先生還專門提到了⾟普森悖論,如下圖所示,兩個學院的個別錄取率男皆⼤於⼥,但是總體錄取率男卻遠⼩於⼥。這意味著同樣一組數據,當你基於不同緯度進行分析時,有可能分析出兩種完全不同的結論,而這可能也是數據偏見產生的另一個原因。

當然,AI偏見產生的原因除了數據以外,杜玉傑還提到了另外兩個原因:算法偏見以及人的偏見。

“目前市面上有很多不同的算法,比如谷歌的算法可以理解成‘人機算法’,即根據人機交互數據訓練得到的算法,而類似的,Facebook的也可以理解成‘人人算法’,此外還有全局算法,場景最優算法等,這意味著不同的算法其實都有著各自不同的侷限性,而有侷限就意味著有偏見,有歧視。”對此,杜玉傑還舉例加以說明,“比如要驗證一個商家到底是不是黑心商戶,你用某個複雜的算法來算或許還不一定算出結果,但你如果去直接問上過當的小白,分分鐘其實就能真相大白。”

不過,不管是數據偏見還是算法偏見,在杜玉傑看來,歸根結底這都是人的偏見。

大數據時代,我們要如何避免AI偏見?

那麼,我們應該如何避免AI偏見呢?

對此,杜玉傑給出建議:1、算法編寫時必須要清楚地意識到偏見的存在;2、模型訓練的目標不應壓榨大眾而應幫助大眾。

杜玉傑認為,AI偏見其實也並不是總會產生不好的結果,實際上,只要掌握上述兩點,AI偏見可能也會產生一些正面的價值。比如《紙牌屋》 的成功,就歸功於奈飛公司利用算法分析了從2500萬用戶那裡收集的數據,發現了人們喜歡觀看的節目類型具有某種傾向性和相關性。 杜玉傑認為,只要最終的目的是為了給用戶更多的快樂與享受,是對用戶有好處的,即使有偏差也不要緊。

當然,關於如何避免AI偏見的話題還沒有結束,再往上走可能就要上升到AI倫理以及法律的層面上來了。

“2016年9月 Google、Facebook、IBM、亞 馬遜和微軟五大科技巨頭成立了Partnership on AI 組織,該組織將制定一些AI倫理上的規範,從而防止AI被恐怖組織濫用等。另外,歐盟也修改了數字版權法,致力於保護用戶數據。”杜玉傑認為通過AI倫理以及法律法規,也可以在一定程度上避免AI偏見。

另外,後谷歌時代的分佈式商業必定會帶來更多的機遇,或許也能為AI偏見問題帶來更多新的內容。

最後,杜玉傑引述吉爾德的觀點認為人工智能可能只是一種無厘頭式的狂歡,在哥德爾不完備定理 、圖靈停機問題 、以及量子力學中的不確定性原理還存在著諸多質疑和爭論的情況下,電腦永遠無法真正的思考或是具有意識, 創造力只能來自於人類思維。

但即便如此,杜玉傑認為人類在未來也將不可避免地受到AI算法的影響,而在這種情況下,AI算法至少應該遵守以下原則:

1、人工智能不應該傷害人;

2、人工智能不應該歧視人 ;

3、人工智能不應該“操縱”人 ;

4、人工智能不應該完全取代人 !


分享到:


相關文章: