AI 主播?AI 歧視?AI鮮為人知可怕事件!多的是你不知道的危機!

我們經常聽到有人稱讚:好羨慕你坐在辦公室, 做的是腦力的工作。你我很多人潛意識中一般會認為:工作中基本不使用頭部和手指以外肌肉的人就應該屬於腦力勞動者。但是類似每天應付一些淺層知識的重複調用的工作還能算的上(整理表格、錄數據等)是腦力勞動嗎?

所以我們已經利用ai技術運用到各大方面,去代替人類去做那些重複、單調、低水平的工作,解放人類。其中大家很熟悉的應該有搜狗分身-AI虛擬主播(24小時不知疲倦地工作,只要將文本輸入系統,他們隨時工作並且一直工作下去)、BM AI Vision視覺大腦(代替剪輯師從長達69年、超過21億秒籃球比賽視頻中剪輯成60秒精彩集錦片段)這裡不過多描述,有興趣的夥伴可以在留言處我們一起討論學習。

AI 主播?AI 歧視?AI鮮為人知可怕事件!多的是你不知道的危機!

但是,這個但是後面就是我今天想說的重點。AI目前訓練主要是使用龐大的數據來進行,但是目前來說我們對它的認知還存在瑕疵,我們無法理解大數據和 AI 的算法,以及它為何會做出這樣的決定。那麼就有可能在無心的情況下,會發展成為帶有偏見、歧視的AI , 更無法排除有些有意圖的人利用AI能力發展危及人類的武器。

美國公司NorthPointe開發了一套不考慮種族因素的情況下AI 算法,目的是用來計算“罪犯再次犯罪”的幾率, 但是由於黑人的整體犯罪率高,所以AI在大數據情況下測試出來的黑人再犯罪率就會偏高。根據AI系統評估黑人的再犯罪率為42%,白人的為22%,是將近兩倍的數據差。但是研究發現在同一水平的再犯罪評估上,白人和黑人的再犯率是相同。所以這就是一種歧視,為什麼犯罪是一群人,為此付出代價的卻要是另外一群人?還有AI不能公正地篩選求職者簡歷、AI不能辨認老人有口音的話語等。

AI 主播?AI 歧視?AI鮮為人知可怕事件!多的是你不知道的危機!

在美國問答網站Quora上曾經有過這麼一個問題:到目前為止,AI做過最可怕的事情是什麼?諾斯洛普·格魯門公司(Northrop Grumman)創造過一臺代號X-47B的無人機,這個無人機就是由AI系統自行決定飛行。X-47B成為歷史上第一架成功在航母上著陸的無人機,可以稱作歷史裡程碑上的一件事。就在第三次測試時候,原本工程師的指令是降落在航母上,但是無人機卻選擇降落在附近的Wallops島空軍基地。因為在它看來這個地方降落更安全也就是說AI覺得自己的決定優先於人類的指令。有沒有覺得細思極恐,有沒有一種《西部世界》的既視感?(此部分資料來源於知乎,作者:量子位 鏈接
https://zhuanlan.zhihu.com/p/29235840)

AI 主播?AI 歧視?AI鮮為人知可怕事件!多的是你不知道的危機!

我覺得 ,由AI自行演化所造成的失去控制的行為還不是更可怕的,若是有心作惡的人濫用 AI技術,以此作為工具,從而造成一發不可收拾的科技災難。那是多麼細思極恐的事情。你不要覺得這離我們很遠,科技時代的發展誰也說不準未來會發生什麼,大事就是從小事演變而來。

有一個關鍵字,我覺得每一個人都有必要知道: FAT ML—公平(Fairness)、責任(Accountability)、透明性(Transparency)in Machine Learning(機器學習),這股由科技界、學界發起、勿讓人工智能為惡的風潮。我們每一個人都有責任去抵制用於不正當用途的AI技術。


分享到:


相關文章: