“計算機視覺”不學好,竟然也會導致“歧視”誤解?

近日,谷歌發佈了一則道歉聲明。起因竟然是Google Vision Cloud將手持測溫計的深膚色人員的圖像標記為“槍支”,而將淺膚色人員的類似圖像標記為“電子設備”。目前,谷歌已更新了算法,不再返回“槍支”標籤。聲明在表達歉意的同時,也稱谷歌發現“沒有表明與膚色有關的系統性偏見的證據。”

“計算機視覺”不學好,竟然也會導致“歧視”誤解?

“計算機視覺”無法正確標記手持溫度計是由於系統尚未使用大量手持溫度計圖像的數據集加以訓練。著重研究自動化系統中的偏見的Agathe Balayn博士在谷歌服務中測試大量圖像後表示該示例可能是“不存在統計偏見的不準確例子”,在缺乏更嚴格測試的情況下,確實不能說這個系統存在偏見。

但計算機視覺的確會基於膚色生成不同的結果,這它依賴訓練數據中相關的模式有關,畢竟是計算機視覺無法識別人類意義上的任何物體。研究表明,一旦在白雪皚皚的背景下拍照,計算機視覺會將狗標記為狼。如果母牛站在海灘上,它們會被標記為狗。由於膚色深的人在訓練數據集中描繪暴力的場景中出現的頻率可能高得多,因此對深膚色手的圖像進行自動推斷的計算機用暴力方面的詞彙加以標記的可能性要大得多。

計算機可能是“無心之失”,但這種“偏見”已開始影響人們的生活。

FrauenLoop的創始人兼首席執行官稱計算機視覺軟件中的偏見會“絕對”影響深膚色人群的生活。她補充說,由於女性和深膚色人群的誤識別率一直偏高,因此用於監視的計算機視覺的普及會對他們造成過大的影響。雖然有外部問責的提醒,但偏見的模型已產生的影響是無法抹去的。在研發階段更慎重的考量或許效果更佳。

“計算機視覺”不學好,竟然也會導致“歧視”誤解?

文章部分素材來源:雲頭條


分享到:


相關文章: