到底該不該用人臉識別技術?IBM

但在亞馬遜的面部識別系統裡,他被識別為一個潛在的罪犯。

戈麥斯是28名美國國會議員中的一員,與被逮捕的人的照片完全匹配,這是去年美國公民自由聯盟對亞馬遜重新認知計劃進行測試的一部分。

到底该不该用人脸识别技术?IBM/亚马逊/ACLU已经吵得不可开交了

亞馬遜被警方使用工具中將近有40%的虛假匹配,涉及有色人種。

這些發現被公民自由團體,立法者甚至一些科技公司越來越多的關注,隨著技術變得更加主流,面部識別可能會傷害少數人種。iPhone和Android手機上已經開始使用面部識別技術進行解鎖,警察、零售商、機場和學校也在慢慢接觸它。但是研究表明,面部識別系統更難以識別女性和膚色較黑的人,這可能導致災難性的誤報。

“這是一個例子,說明技術在執法領域的應用如何對已經過度監管的社區造成有害後果,”北加州ACLU的技術和公民自由律師Jacob Snow說。

面部識別有它的好處。馬里蘭州的警察利用這項技術在首都公報的大規模槍擊案中找出了一名嫌犯;在印度,它幫助警察在四天內識別了近3000名失蹤兒童;Facebook使用該技術為視障人士識別照片中的人物;它已成為解鎖智能手機的便捷方式。

但這項技術並不完美,而且還有一些尷尬的失誤。谷歌照片曾將兩個黑人識別成大猩猩。在中國,一位女士聲稱她的同事能夠使用Face ID 解鎖她的iPhone X。當執法機構使用面部識別來識別犯罪嫌疑人或在抗議中揭露人們時,被誤認的風險就會增加。

“當執法部門使用這項技術確定某人是否因犯罪而被通緝時,那就是完全不同的情況,”戈麥斯說,“錯誤的身份有可能會導致執法部門和那個人之間發生致命的互動。”

立法者對ACLU的調查結果並不感到震驚,並指出科技工作者通常更多地考慮如何使某些東西發揮作用,而不是關於他們構建的工具如何影響少數人種。

科技公司通過改進用於培訓面部識別系統的數據來回應批評,但與民權活動家一樣,他們也呼籲更多的政府監管,以幫助保護技術不被濫用。喬治敦大學法學院的研究人員估計,每兩名美國成年人中就有一名被用於執法人員使用的面部識別網絡。

亞馬遜不贊同ACLU研究,認為組織在測試識別系統時使用了錯誤的方法。

“機器學習是一個非常有價值的工具,可以幫助執法機構,雖然可能存在誤判,我們不能因為設定了錯誤的溫度導致烤焦了披薩而扔掉烤箱。”人工智能總經理Matt Wood在亞馬遜網絡服務公司的一篇博文中辯解道。

識別問題

與白人男性相比,面部識別服務可能更難以識別少數民族和女性,這有多種原因。

到底该不该用人脸识别技术?IBM/亚马逊/ACLU已经吵得不可开交了

喬治城法學院隱私與技術中心的高級助理克萊爾加維說,科技工作者用來訓練計算機識別面孔的公開照片可能包括比白人更多的白人。例如,如果一家公司使用名人數據庫中的照片,那麼它就會傾向於白人,因為好萊塢的少數人種人數不足。

Garvie說,科技公司的工程師,大多是白人,也可能在不知不覺中設計面部識別系統,以更好地識別某些種族。研究表明,人們更難以識別另一個種族的面孔,並且“跨種族偏見”可能會滲入人工智能。她還補充說,對於深色皮膚缺乏色彩對比的問題,以及女性使用化妝品來掩蓋皺紋或頭髮不同的問題,都存在挑戰。

根據麻省理工學院媒體實驗室的研究人員進行的一項研究,微軟,IBM和Face ++製作的面部識別系統很難確定像非洲裔美國人這樣的黑皮膚女性的性別。35%的黑皮膚女性的性別會被誤認為是高加索人等1%的淺膚色男性。

麻省理工學院於1月份發佈的另一項研究表明,亞馬遜的面部識別技術比微軟或IBM確定黑皮膚女性性別的工具更難。

科技公司的作用

亞馬遜對麻省理工學院的研究結果提出了質疑,一名女發言人指出,該研究稱這項研究“具有誤導性”。研究人員使用“面部分析”來識別面部特徵,如性別或微笑,而不是面部識別,將人臉與照片或視頻中的相似面部相匹配。

“面部分析和麵部識別在底層技術和用於訓練它們的數據方面完全不同,”伍德在一篇關於麻省理工學院研究的博客文章中說。“嘗試使用面部分析來衡量面部識別的準確性是不明智的,因為它不是用於此目的的預期算法。”


分享到:


相關文章: