看不透的AI防自殺背後,防的是利益損失

看不透的AI防自殺背後,防的是利益損失

很忙的扎克伯格決定在全球範圍內推廣AI防自殺系統以平息用戶對Facebook的不滿情緒,這是怎麼回事?

原來,之前Facebook上曾多次出現直播自殺的事件,但由於平臺方沒有及時排查到此類信息,一時給社會造成了很大的負面影響。而Facebook也理所當然地遭到了平臺用戶的責難。所以扎克這才趕緊推出了AI防自殺系統。不過,這已經不是第一次Facebook因為信息管理不利而被diss了。今年報道指出英國一家數據分析的政治諮詢公司利用Facebook的信息管理漏洞,竊取了5000千多萬Facebook用戶的個人資料,幫助現任美國總統特朗普在2016年的大選當中獲得有利輿論。

Facebook近年來爭議不斷,這套AI防自殺系統是其挽回用戶信心的一個小動作,但是小動作裡面也可能藏有大玄機,Facebook的新技術到底能不能安撫長期以來被其傷害的用戶之心呢?

從圖文到視頻:AI識別自殺的技術之流

AI可以識別自殺這一論斷看似很迷,但是在各種AI識別人類性格、性取向、精神疾病等技術層出不窮的前提下,我們可以嘗試對AI防自殺系統進行簡單剖析,嘗鼎一臠。

文字識別:AI防自殺系統會對用戶的發帖內容進行識別,針對含消極情緒的語句,

例如,“我不想活了”,“我恨世界上所有人”,“我為什麼還不死”這類代表負面情緒的語言AI會特別注意,並將發佈此類言論的用戶進行標記。然後,AI會將相應的數據移交給公司專員進行篩選和處理,最後由人工來做出決策。Facebook這套AI防自殺系統沒有讓AI單兵作戰,而是選擇人機協作的方式來篩選信息,為提高系統識別自殺的準確度做了一定的保障。目前,AI偵測與回報機制的速度比人工的手動回報快三成,已經大大提高了Facebook信息篩選效率,併成功阻止了多起自殺事件。

圖片識別:其實,要機器從一張圖片來分析出一個人是否有自殺傾向是一件相當困

難的事情,因為圖片的表達有時候比較抽象,其中還會涉及到色彩學方面的問題,就算是人類也不一定能做到。不過AI仍然可以對此做出一些嘗試,我們可以拿另外一個AI圖片識別的領域來舉例,那就是AI鑑黃。由於深度學習的神經網絡模型在各種圖像識別比賽中取得的突破性進展,目前AI鑑黃一般會採用CNN(卷積神經網絡)、GoogleNet、ResNet(殘差網絡)三種深度網絡模型結構。開發人員會需要從技術層面研發出一個“分類器”,從而讓AI能夠計算出該圖是否屬於黃圖的概率。這套AI鑑黃的原理在理論上來說對於所有的圖片識別基本通用,只不過相比鑑黃來說,AI要從圖片中識別出自殺傾向的困難點在於難以抓取此類圖片的共同點,所以在第一步建立“分類器”上,AI可能會遇到比較大的障礙。因此後續AI識別的準確率,相對文字識別來說,也會不太好保證。

音視頻識別:當然,用戶在社交平臺上發佈的內容不僅僅是文字和圖片,還有很多

的表達是以音頻或者視頻的形式。所以,AI防自殺系統在視頻直播當中也植入了AI程序。雖然Facebook方面並沒有透漏有關該AI視頻識別技術的相關細節,但是我們仍然可以從機器視覺領域的進展來窺一窺究竟。之前,一公司的計算精神病學和神經成像研究小組團隊利用機器學習預測大腦精神疾病抑鬱症,通過對59名普通人的語言方式進行追蹤和分析從而預測他們潛在的患病風險,其精確度達到83%,由此我們可以看出機器具備一定能力從語音層面來分析人類情緒。另外,南加州大學曾推出一款AI心理治療師,能夠分析受訪士兵的面部表情變化,並將AI分析表情的結果作為診斷士兵是否存在PTSD(創傷後應激障礙)的依據之一。所以,AI防自殺系統要判斷視頻中的人是否有自殺的傾向,可能首先會從一、人物的面部表情;二、是否存在危險器械;三、是否有流血等畫面的特點來進行分析。總的來說,AI防自殺系統的有關圖像識別技術基本上會與以上所提到的兩個機器學習技術類似。

AI防自殺識別系統之殤,真的很痛

雖然現在AI識別人類情緒的工程一直在持續推進,但是情緒識別對於機器來說仍然不是一件簡單的事情。

首先,我們需要弄清楚AI分得清“演戲”和“真實”嗎?比如,在快手上存在著大量小劇場表演式的視頻類型,很多男生哭天搶地,女生狠心決絕甩耳光的視頻得到數百萬的點贊。人們把這些視頻當作娛樂消遣,而機器會怎麼看待這樣視頻?嘴角下揚、淚眼婆娑、聲嘶力竭,這一場場一幕幕會被機器的“眼睛”迅速捕捉,並將其標籤為極端消極負面的情緒傳播。吃瓜群眾津津樂道地一場戲精飆戲在機器眼裡成了有自殺傾向的人群情緒宣洩。這可能真的會讓人有些哭笑不得。模仿是人類的天性之一,長期熟悉模仿式表演的用戶能夠很快分辨出模仿和真實情緒的流露之間的細微差別,但是就是這一點點細微的差別卻是機器情緒識別最難突破的瓶頸之處。

其次,當機器將識別出的一些負面關鍵詞作為標記自殺人群的標準時,那麼我們必須應該讓機器知道那些說要“死”的人是不是真的想去死。Facebook這一AI防自殺系統應用於國外會有什麼烏龍,我們可能還沒那麼清楚。但是設想一下,如果把這一系統挪用到中國來,人工篩選的信息量反可能被大大增加。舉個例子,在中國的語言系統裡有一個很特殊的點,就是很喜歡把“死”作為程度詞來使用。在日常生活中,我們隨時隨地都會聽到有人說“熱死了”,“冷死了”,“煩死了”,“討厭死了”,像這類句子在人類看來只是十分常見的日常用語,但是機器對此卻難以判定。因為機器家族對這個世界暫時還不存在一個全面的感知系統。當中國被譽為“四大火爐”的幾個城市一到夏天,每一個人都能感受到高溫的襲來,也會知道在這個時候說“熱死了”是多麼正常的表達,而機器能怎麼辦呢,它可並不知道現在的現實世界到底有多熱呀。

另外,在機器的背後還需要思考的問題是懸在各大社交平臺頭頂的一把達摩利斯克之劍—隱私之殤。6月4號,報道稱在過去十年中,Facebook至少與60家設備製造商(包括蘋果、亞馬遜、黑莓、微軟和三星)達成協議,向它們提供用戶隱私信息,這些協議中的多數至今還在生效。Facebook建立了最龐大的信息帝國,但是每一次信息技術的革命只是在表面上讓信息看上去更加去中心化,然而實際上卻只是建立了更加龐大的信息壟斷市場。對比現實世界的條條框框,網絡承擔了社會“減壓閥”的功能。負面情緒再怎麼樣都是人類的基本情緒,也是人類該有的脆弱。原本以為在無弗屆遠的網絡世界,你能擁有一隅展示脆弱的機會。但是,誰知道你的脆弱已經被平臺收集,你躲在黑暗中卻被各大商家悄悄盯上。在商業的世界中,商人需要不斷髮掘人性的弱點,便於制定推廣商品的策略。而Facebook正在承擔這樣一個“老鴇”的角色給商家提供人性的弱點,令人扼腕。

娜拉出走之後,AI防自殺系統還能做什麼

AI防自殺系統在正式投入使用後,一個月檢測並攔截到的自殺事件有上百個,確實有效挽救了不少生命。但是從一個爭議不斷的社交平臺的角度來說,AI防自殺系統的目的到底是什麼還需要探討。這樣的一套AI程序究竟是為了及時拯救生命,還是肅清平臺環境,還是僅僅只是平臺針對外界質疑的擋箭牌而已。如果,這是為了及時拯救生命,那麼這樣的AI防自殺系統會面對一個非常有爭議的問題,就是娜拉出走之後的問題。今年5月,在廈蓉高速服務區發生一起因欠下鉅額高利貸而全家自殺的事件,而事件的主人公正是去年在微博發佈遺書之後在海南警方及時救援下最後自殺未遂的同一家人。從這件事中,我們可以意識到微博作為信息平臺可以發現並識別這樣的自殺信息,但是拯救了一次之後呢?該自殺的還是照樣自殺,只不過這次卻不關我的事了。說得冷漠一點,或許這些信息平臺真正想說的只是:自殺是你的自由,但是請別在我的地盤上自殺。看懂了這一層的邏輯後,這個AI防自殺系統似乎光環不再,最終,Facebook防來防去,防的還是利益損失。

但除去一些個例,AI防自殺系統還是有很大的落地空間。因為AI防自殺系統不僅是在社交平臺,還在醫療機構、審訊機構等可以發揮作用,及時阻止一些不必要的傷亡。目前,自殺已經成為世界第十大死亡原因,2016年美國衛生統計中心發佈的數據顯示,美國的自殺率在15年間上升了24%。但在全球自殺的人群當中,仍然有相當一部分人是屬於非理性自殺,他們需要有一個AI防自殺系統能夠幫助他們再獲得一次重生的機會。所以,期待AI防自殺系統在解決了一些硬性問題之後,全面落地到日常生活當中,拾取更多可能在不經意間逝去的生命。


分享到:


相關文章: