人工智慧也會學壞?「終結者「時代會來臨嗎?

相信許多人都看過《終結者》系列電影,當科技不斷髮展,人工智能越來越成熟,不少人都開始擔心,但人工智能越來越像人類,是否“終結者”中的場景會在未來某一天到來。

人工智能也會學壞?“終結者“時代會來臨嗎?

人工智能技術之所以流行,主要因為“深度學習”技術推進。利用深度學習之後,企業可以在網絡中輸入大量信息,迅速識別模式,而且耗費人工培訓的時間減少,最終很可能無需培訓。Facebook、谷歌、微軟、亞馬遜和IBM等巨頭都已在產品上應用深度學習技術。舉例來說,蘋果的Siri和谷歌的語音助手Assistant應用深度學習技術後,可在用戶說話之後識別並回應。亞馬遜主要利用深度學習直觀檢查大量通過雜貨店派送的產品。

不久的將來,各種規模的公司都會希望通過應用深度學習軟件挖掘數據,尋找人眼很難發現的寶貝。人們希望出現人工智能系統掃描數千張X光圖像,從而更迅速發現疾病;或自動篩選多份簡歷,為焦頭爛額的人力資源員工節省時間。在科技主義者的設想中,公司可以用人工智能篩選過去多年的數據,更好地預測下一次大賣的機會。藥業巨頭可以削減研發暢銷藥的時間。而汽車保險公司也能掃描記錄數萬億字節的事故報告,實現自動索賠等。

目前人工智能已經可以模仿並強化人類的決策,但也暴露了人工智能目前最嚴峻的問題——偏見。人工智能決策水平受到人類提供數據的限制,開發者雖然不斷學習,用來培訓深度學習系統的數據卻並不中立。數據很容易體現出開發者的偏見,不管有意還是無意。有時數據還會受歷史影響,形成的趨勢和模式體現出持續數百年的歧視觀點。

2016年3月微軟推出Tay時,非常看好這款人工智能支持的“聊天機器人”。跟人們之前在電商網站上接觸過的文字聊天程序一樣,Tay也可以回答文字問題,從而在推特和其他社交媒體上與公眾交流。

但Tay功能更強大,不僅能回答事實性問題,還可以進行更復雜的交流,即加入了情感因素。Tay能表現出幽默感,像朋友一樣跟用戶說笑。設計者特地讓Tay模仿十幾歲少女的俏皮口吻。如果推特的用戶問Tay父母是誰,她可能回答說:“哦,是微軟實驗室的一群科學家。按你們的概念裡他們就是我父母。”如果有人問Tay過得怎樣,她還可能吐槽說:“天吶,今天可累死我了。”

最有趣的一點是,隨著與越來越多人交談,Tay問答時會越發熟練。宣傳材料中提到:“你跟Tay聊得越多,她就越聰明,體驗也會個人化。”簡單點說,Tay具有人工智能最重要的特點,即隨時間越來越聰明,越來越高效,提供的幫助也越來越大。但是,當Tay開始和人類聊天后,不到24小時,她就被“教壞”了,成為一個集反猶太人、性別歧視、種族歧視於一身的“不良少女”。上線不到24小時,微軟就宣佈下線產品並公開道歉。

人工智能也會學壞?“終結者“時代會來臨嗎?

人工智能也會學壞?“終結者“時代會來臨嗎?

人工智能也會學壞?“終結者“時代會來臨嗎?

微軟研究和人工智能總監艾瑞克·霍維茨在接收採訪時表示“系統上線時,我們並沒有想到進入現實世界會怎樣。”

普林斯頓大學信息技術政策中心的計算機科學家 Arvind Narayanan 在面對人工智能越發“智慧”表現出擔憂:AI 如果在機器學習中將人類固有的偏見全盤複製過來,之後也會將其學到的偏見一五一十地反饋出去,這可能會加重文化中原有的刻板印象,這可能會進一步創造出一個延續偏見的反饋迴路。

“當前應用的強大算法沒有為所謂公平進行優化。”加州大學伯克利分校副教授迪爾德麗·穆里根表示,她主要研究技術倫理。“只存在為完成某項任務優化。”人工智能以前所未有的速度將數據轉化為決策,但穆里根表示,科學家和倫理學家發現很多情況下“數據並不公平”。

深度學習較傳統算法更加複雜,即便讓經驗最豐富的程序員理解人工智能系統做出某項決策的邏輯都十分困難。在Tay的例子裡,人工智能產品不斷髮生變化,開發者已無法理解也無法預測為何出現某些行為。由於系統的開發者和用戶都在拼命保密數據和算法,而且擔心專利技術洩露導致競爭受損,外部監測機構也很難發現系統裡存在什麼問題。

Facebook曾在2016年發生一起人工智能奔潰事件,在2016年美國大選前期,Facebook的新聞推送中出現了假新聞。社交媒體巨頭Facebook和數據科學家並沒有編造故事。新聞信息流的開發機制並不會區分“真”和“假”,只會根據用戶個人口味推動個性化內容。Facebook沒公開算法具體信息,但承認計算時會參考其他近似口味用戶閱讀和分享的內容。結果是:由於適合流傳的假新聞不斷出現,好友們又喜歡看,數百萬人的新聞信息流裡都出現了假新聞。

人工智能也會學壞?“終結者“時代會來臨嗎?

Facebook的例子說明個人選擇與人工智能發生惡性互動的情況,但研究者更擔心深度學習閱讀並誤讀整體數據。博士後提米特·葛布魯曾在微軟等公司研究算法倫理,她對深度學習影響保險市場的方式很擔心,因為在保險市場上人工智能與數據結合後可能導致少數群體受到不公待遇。舉個例子,想象有一組汽車事故索賠數據。數據顯示市中心交通事故率比較高,由於人口密集車禍也多。市中心居住的少數群體人數比例也相對更高。

如果深度學習軟件裡嵌入了相關聯繫再篩選數據,可能“發現”少數族裔與車禍之間存在聯繫,還可能對少數族裔司機貼上某種標籤。簡單來說,保險人工智能可能出現種族偏見。如果系統通過回顧市中心附近車禍現場的照片和視頻進一步“培訓”,人工智能更有可能得出結論認為,在涉及多名司機的事故中,少數族裔司機過錯可能更大。系統還可能建議向少數族裔司機收取更高保費,不管之前駕駛記錄如何。

此外,葛布魯指出,由於深度學習系統決策基於層層疊疊的數據,人工智能軟件決策時工程師都不明白其中原因和機制。“這些都是我們之前沒想過的,因為人類剛剛開始發現基礎算法裡存在的偏見。”

微軟和IBM均表示,公司已採取針對性的措施來完善其圖片識別技術。儘管這兩家公司拒絕透露其舉措的詳情,但正在應對這一問題的其他公司則讓我們窺見了如何利用科技來規避偏見。

人工智能也會學壞?“終結者“時代會來臨嗎?

當亞馬遜在部署用於篩除腐爛水果的算法時,公司必須解決抽樣偏見問題。人們會通過研究大量的圖片數據庫來培訓視覺辨認算法,其目的通常是為了識別,例如,草莓“本應”具有的模樣。然而,正如你所預料的那樣,與完好漿果光鮮亮麗的照片相比,腐爛的漿果相對較為稀少。而且與人類不同的是,機器學習算法傾向於不計算或忽視它們,而人類的大腦則傾向於注意這些異常群體,並對其做出強烈反應。

亞馬遜的人工智能總監拉爾夫·荷布里奇解釋道,作為調整,這位在線零售巨頭正在測試一項名為過採樣的計算機科學技術。機器學習工程師可通過向未充分代表的數據分配更大的統計學“權重”,來主導算法的學習方式。在上述案例中便是腐爛水果的照片。結果顯示,培訓後的算法更為關注變質食物,而不是數據庫中可能建議的食品關聯性。

人工智能也會學壞?“終結者“時代會來臨嗎?

荷布里奇指出,過採樣也可被應用於學習人類的算法。荷布里奇說:“年齡、性別、種族、國籍,這些都是人們特別需要測試採樣偏見的領域,以便在今後將其融入算法。”為了確保用於識別照片人臉面部所使用的算法並不會歧視或忽視有色、老齡或超重人士,人們可以為此類個人的照片增加權重,以彌補數據組所存在的缺陷。

面對人工智能的偏見,科技公司們應提升人工智能黑盒系統所錄入數據的透明度和公開度,有助於研究人員更快地發現偏見,並更加迅速地解決問題。當一個不透明的算法可以決定某個人是否能獲得保險,或該人是否會蹲監獄時,我們必須嚴謹地去測試這些系統,而且需要確保一定的透明度,否者,《終結者》中的人機大戰也許會在某一天到來。


分享到:


相關文章: