多倫多大學開發反人臉識別系統,識別成功率降至 0.5%

多伦多大学开发反人脸识别系统,识别成功率降至 0.5%

“刷臉”,作為一種個人身份鑑別技術,在深度學習等技術的護持下精度得以大幅提升,在LFW上,各大玩家在無限制條件下人臉驗證測試(unrestricted labeled outside data)中提交的成績普遍能夠達到99.5%以上。

人臉識別技術日益成熟的背後,作為自帶AI落地基因的安防行業(數據大、高試錯容忍度),這幾年,天網工程廣泛鋪開、智能系統全局應用,城市秩序得到了更為高效的管理和防護,民生需求得到了更為及時的處理和反饋,違反亂紀的行為能被精準識別和處罰。

與此同時,人臉識別系統的應用也頗受爭議。

在大洋彼岸的美國,亞馬遜因向美國執法機構提供人臉識別技術而遭到某聯盟的譴責。該聯盟表示,“亞馬遜以十分低廉的價格向美國警方提供人臉識別服務,可能會導致美國公民的私人數據被濫用及隱私遭到侵犯”。

在他們看來,將人臉識別技術應用到前端視頻監控攝像機上,可能會打破隱私及實用性之間的平衡。假設美國警方有若干臺這樣的安防攝像機,同時擁有可疑人員的“黑名單”照片庫,那麼其他任何人如果與這些可疑人員有一些相像,一旦進入警察的安防攝像機的鏡頭之內,都有可能受到警務人員的盤問。而大多數美國人不希望生活在那樣的世界裡。

從這來看,技術應用的雙刃劍在人臉識別的落地上就得以體現,且不說人臉識別技術發展對於人類來說優多(安全)還是劣多(隱私),硬幣拋下落地的可能性還是得到了平衡。

近日,多倫多大學教授Parham Aarabi和他的研究生Avishek Bose開發了一種算法,通過對圖像進行“光轉換”,可以動態地破壞人臉識別系統。

與上述聯盟控訴亞馬遜的理由一樣,這位大學教授也考慮到了隱私問題,“隨著人臉識別技術越來越先進,個人隱私成為了一個真正急需解決的問題,這就是反人臉識別系統被研發的原因,也是該系統的用武之地。”

根據Aarabi的說法,他們主要採用了對抗訓練(adversarial training)技術,使得兩個神經網絡相互對抗,一個神經網絡從數據中獲取信息(人臉數據),另一個神經網絡試圖去破壞第一個神經網絡執行的任務。

據悉,他們的算法是在包含不同種族,不同光照條件和背景環境下的超過600張人臉照片的數據集上進行訓練的(業界標準庫),兩個神經網絡相互對抗會發形成一個實時的“過濾器”,它可以應用到任何圖片上。因為它的目標——圖像中的單個像素是特定的,改變一些特定像素,肉眼是幾乎無法察覺的。比如說檢測網絡正在尋找眼角,干擾算法就會調整眼角,使得眼角的像素不那麼顯眼。算法在照片中造成了非常微小的干擾,但對於檢測器來說,這些干擾足以欺騙系統。

“此前多年,這些算法必須由人類去定義,現在的神經網絡可以自主學習。目前我們的算法將人臉識別系統中被檢測到的人臉的比例降低到了0.5%。我們希望在APP或網站上提供這種神經網絡系統,這是一個非常有意思的領域,有著非常大的潛力市場,”Aarabi教授說道,“另外研究報告也將在2018年IEEE國際多媒體信號處理研討會上發表”。

其實,破壞人臉識別產品識別率的產品並不少見。早在2016年,卡內基梅隆大學的研究人員就設計了一種眼鏡框,可以誤導面部識別系統,使其產生錯誤的識別。

該類軟件在學習人臉的模樣時,它非常依靠於特定的細節,如鼻子和眉毛的形狀。卡內基梅隆大學打造的眼鏡並不只是覆蓋那些臉部細節,還會印上被計算機認為是人臉細節的圖案。雷鋒網雷鋒網

來自VentureBeat,雷鋒網編譯


分享到:


相關文章: