美國開發了一個預測幫派犯罪的AI,但可能跟人一樣也產生「偏見」


美國一組研究人員開發了一種算法,該算法可用作預測性警務工具來歸類哪些犯罪是與團伙有關的。它可能是有效的,但是否完全客觀呢?


美國開發了一個預測幫派犯罪的AI,但可能跟人一樣也產生“偏見”

數據,犯罪和AI

一個旨在幫助調查黑幫犯罪而設計的AI,讓該領域的專家擔心其“嚴重的倫理問題”。

該算法於今年2月在路易斯安那州新奧爾良舉行的人工智能、倫理和社會(AIES)會議上提出,旨在幫助警方打擊犯罪,但它也不能免受傳統上“人為錯誤”的影響。

在以往的犯罪活動數據基礎上使用計算機算法來確定下一次犯罪何時何地可能發生,這種預測監管做法並不是新事物。

然而美國這個新的AI,是第一個關注與幫派暴力行為有關的人工智能。

這個AI只關注犯罪現場的四個特定細節:主要武器是什麼,有多少嫌疑人在場,街區以及犯罪發生的確切位置。

美國開發了一個預測幫派犯罪的AI,但可能跟人一樣也產生“偏見”

研究人員利用洛杉磯警察局的數據,研究了2014年至2016年期間5萬起與團伙有關的和非團伙有關的兇殺事件、嚴重襲擊和搶劫事件,來對算法進行了訓練。然後他們使用另一組來自同一警局的數據對其進行了測試。

根據AIES會議上發表的論文,該AI能最大程度減少30%的誤差率。

客觀性問題

“這幾乎肯定是一件好工作。”作為聽眾一員的Google軟件工程師Blake Lemoine 表示。“但研究人員是否考慮過可能出現的意外情況?”

當然,這可能有助於確定與幫派有關的犯罪行為,但是系統的不完善可能意味著它也可能誣陷無辜者。其他專家在會議的問答環節中也表達了類似的道德問題。

美國開發了一個預測幫派犯罪的AI,但可能跟人一樣也產生“偏見”

觀察者也擔心潛在的偏見問題, 這是這個特定AI的道德影響的一個重要方面。正如一位評論員告訴紐約時報所說的,用於預測性警務方法的數據可能存在偏差,特別是當涉及到將特定社區確定為犯罪“熱點”時。

既然機器學習訓練根據其用作訓練用的數據來作出決定,那麼其結論可能反映這種偏見。

AI的偏見過去曾發生過。例如,英國一個用於監管決策的AI,竟然歧視窮人。

儘管許多人希望人工智能在警方調查中能夠成為更客觀的合作伙伴,但實際上它並不能避免人類固有的錯誤。

在這一點上,就連app的開發人員都不是完全有信心。“目前還很難說。”研究人員之一的Jeffrey Brantingham對媒體表示。

鑑於類似的AI最終會加劇偏見 —— 種族或社會——並促進歧視行為,這項工作可能需要更多的研究才能部署在現實生活中。因為在目前情況下,社會各界對倫理的考慮似乎超過了AI的實際應用。


分享到:


相關文章: