莎拉·卡茨(Sarah Katz)走出了Facebook總部大樓,她長舒了一口氣:終於要離開這個鬼地方了。
這是卡茨在Facebook工作的第七個月。
第一天,她拿到了一份協議,聲明她將看到很多令人不適的影像材料,但當真正坐在電腦前,她還是震驚了。
打開的第一張圖片,是人與獸正在性交的裸露照片。
她幾乎要吐出來了,下意識地擋住了電腦屏幕。左右望望,卻發現:新來的同事們都漲紅了臉,儘量擋住屏幕;老前輩們在一邊同情地望著他們。
第二條,是一個視頻,屏幕前,站著一對裸露著身體的男孩和女孩,屏幕後,有個成年人的聲音說,要他們進行性接觸……
這條視頻直接把她推到了崩潰的邊緣。
卡茨真的忍不住了,跑出了辦公室。這個晚上,她做了有生以來最可怕的一個夢。
卡茨的工作,說好聽點,叫“視頻審核員content reviewer”,其實就是我們所說的“鑑黃師”。
當然,他們還有個更高大上的稱呼,叫“spam analyst and content monitor”,垃圾郵件分析師和內容審核師。
她們的工作中,“鑑”的其實不只是“黃”,還有暴力、仇恨、恐怖主義、斷頭、虐待動物、兒童色情……尺度之大,畫面之血腥,難以想象。
卡茨在這個崗位上已經呆了7個月了。這七個月裡,她每天面對的,是超過8000條的帖子,每個帖子的判斷時間需要小於10秒。
這意味著,她需要在10秒內搞清楚帖子的內容,判斷出畫面或文字中是否有包含色情、暴力等訊息,並做以處理。
如果你以為,卡茨的工作只是刪刪“黃帖”,那就大錯特錯了,如果沒有他們,網絡世界的發展可能會超出你的想象。
2017年3月,一名15歲美國少女遭多名男子性侵,這一情況被直播到Facebook上,40個人參與了觀看,卻沒有一個人報警。
2017年4月,Facebook上出現了一場直播,一名泰國男子拍攝下自己殺害親生女兒、隨後並自殺的畫面。
這個視頻在Facebook上被掛出近24小時,播放量超過25萬次,衝擊了數萬觀眾的眼球,由此也成為了Facebook的一場事故……
一隻貓被扔進微波爐。
兒童士兵參與殺戮。
六個月大的孩子被強姦。
在戰時被淹死的平民……
這些,僅僅是卡茨一天中八千分之一的工作內容。
上傳者在炫耀“成就”,可卡茨看到的,卻是真實發生過的慘案和罪行。
或許你會好奇,AI如此智能,還不能代替人力?
扎克伯格在用2017年招聘3000名審核師的做法回答你:機器畢竟是機器。沒有關鍵字,視頻和圖片的甄別只能靠人工完成。
多數人在成為“鑑黃師”前,好奇心蓋過了忐忑,甚至有人還暗藏私心,以為能夠看到什麼大尺度畫面;而當真正見識到那些色情、暴力、虐待、謀殺、自殘、仇恨的內容後,就只剩噁心了。
日復一日,變得麻木。
Google的一位前內容審核員說:一整天盯著刺激的畫面,到最後,我的眼睛裡除了條款,看不到別的;連手指也只是機械地按下刪除鍵。
熟悉不意味著適應,太過刺激的畫面所造成心裡創傷,往往無法逆轉。工作難長久是必然的結果。
所以來任職的,大多都是外包員工。而這些人,為了順利地工作下去,也不得不用強烈的社會責任感來要求自己:“為了給用戶一片視覺的淨土,我不入地獄,誰入?”
這不是Facebook一家的問題,所有對用戶自由開放的網站,如Twitter、YouTube等都有同樣的困惑:這個職位必不可缺,但卻難以找到願意投身的人。
這些公司也並不是冷血動物,他們同樣也注重這些員工的心理健康,Facebook配備了24小時心理諮詢服務:
也會向他們提供所需:
可這仍然擋不住卡茨們工作之外還會時時想起的噩夢。
曾在YouTube任職的Rob說,“如果有人上傳了虐待動物的影片,那通常就是那個人做的,而且他還會非常得意。”他在工作時看遍了街頭鬥毆、斬首、自殺炸彈的視頻。
另一位來自Facebook的Laura在接受採訪時說:有段時間她常常夢到一個被抓住的女孩正在大哭的樣子,周圍的人們都在拍視頻……還有那些不斷流血的、跳樓的場景,都在午夜夢迴時,被重新喚醒…
就像Laura說的:這是最難的、最無人在意的工作;哪怕是最親密的家人,也無法理解你的痛苦。
Laura在接受採訪時,記者問她:如果扎克伯格坐在這裡,你會對他說什麼?
她沉默了一會兒,說:你怎麼能夠允許這樣的事情發生呢?怎麼能夠忍心,讓我們去看這樣的東西呢?
到底為什麼會允許這樣的事情發生呢?小扎恐怕也只能以沉默作答。
卡茨們所經歷的考驗是:最可怕的是,你明知道這樣的事情,發生在真實的人身上。
而最無能為力的是,你明知道這對他們是折磨,可這份工作卻必須存在,必須有人來完成。
他們替我們吞下了這顆毒藥,才保證了這世上更大的安寧。
閱讀更多 朝聞TBS 的文章