韓國的集體性暴力不止N號房?當deepfake遇到KPOP!

n號房是指2018年下半年至2020年3月間韓國發生的一系列使用Telegram軟件進行的性剝削罪案。

消息傳出後,韓國社會譁然,有數十萬人向青瓦臺發起請願,要求公開所有涉案會員真實身份樣貌,並有近兩百萬人署名。

韓國的集體性暴力不止N號房?當deepfake遇到KPOP!

一些愛豆在內的韓流明星,如邊伯賢、樸燦烈、文佳煐、鄭容和、RAVI、趙權、惠利、柳昇佑、權正烈、白藝潾、夏沇秀、孫秀賢等也參與了聯署請願活動。

但根據虛擬貨幣交易所留下的個人信息,1萬多名n號房的付費會員中不僅有公務員、教授,還有人氣藝人、體育明星、商界名人等知名人士。

1 從N號房到Deepfake

既然韓流明星都有“付費者”,恐怕愛豆中也不乏n號房的看客。

可笑的是沉默者、發聲者亦或施暴者也在被施暴,套娃者人必套之——愛豆們紛紛發聲譴責以n號房為代表的韓國集體性暴力行為的同時,包括韓國愛豆在內的各國名人明星本身也在遭受一種集體性暴力,那就是Deepfake技術在某些領域的快速應用

韓國的集體性暴力不止N號房?當deepfake遇到KPOP!

"deepfake"是英文“deep learning”(深度學習)和“fake”(偽造)的混成詞,帶色情成分的Deepfake作品早在2017年間就在Reddit論壇上流出,蓋爾·加朵成了第一個受害者(主流關注級別)。

韓國的集體性暴力不止N號房?當deepfake遇到KPOP!

蓋爾·加朵被Deepfake

2019年B站某UP主也是利用這一技術實現“移花接木”,將楊冪的臉“貼”在了朱茵飾演的黃蓉臉上

,從而引發了網友熱議,微博上 話題流量上億。

韓國的集體性暴力不止N號房?當deepfake遇到KPOP!

朱茵飾演的黃蓉換臉成楊冪

理論上,只要擁有足夠多的“素材”,任何一個人臉都可能出現在Deepfake作品裡!

目測徹底避免被“換臉”的最好的辦法,就是不要在社交媒體上去發佈任何自己的照片!然而這大概相當於叫女孩子不要穿裙子上街?毫無邏輯和實際操作可能。

畢竟,人工智能的發展使得“變臉”越來越難分真假,而“變聲”也不是什麼難事——若利用訓練樣本、開源程序代碼、臉部更換算法“變臉”,再輔以“配音”,原汁(yan)原味(sheng)地實現「明星出演 AV」風騷操作這一製作過程想必也並不困難。到時候,人們可以不在社交媒體上去大量發佈自己的照片,但總不能不開口說話吧?

而知名人士作為公眾人物,肖像在網上氾濫的客觀現狀也為Deepfake視頻的製造提供了方便,以致於有些已經不只是某些角度神似了,下圖中你能分出誰真誰假嗎?

韓國的集體性暴力不止N號房?當deepfake遇到KPOP!

哪一個是sakula?

2 從Deepfake到KPOP

網絡上流傳的Deepfake視頻的“換臉”對象通常都是女明星。

韓國的集體性暴力不止N號房?當deepfake遇到KPOP!

某以韓國女idol為主的網站,中日兩國演員也是受害者

外媒2019年發佈的一項研究指出,截至2019年10月,現有Deepfake視頻的受害者有41%是英國或美國女演員,約四分之一是以K-POP愛豆為主的韓國明星,而通過互聯網傳播的deepfake被用於非自願色情產品有96%。

網絡安全公司Deeptrace的研究分析主管Henry Ajder認為K-POP歌手人數過多說明Deepfake越來越“全球化”。Deeptrace的CEO Giorgio Patrini去年7月也在推特中表示“K-POP的Deepfake長期以來一直是AI的早期趨勢”。

總體而言,由於K-POP在全球範圍內的爆炸性增長,K-POP明星的知名度越來越大,而KPOP的全球化使得韓國idol的圖片與視頻一般在主流社交媒體、搜索引擎和視頻平臺公開,容易大量獲得,因此成為Deepfake的“訓練素材”並不意外。

韓國的集體性暴力不止N號房?當deepfake遇到KPOP!

有趣的是,Henry Ajder等人的研究數據顯示,網絡論壇中製作Deepfake視頻的大部分用戶並非來自韓國,而是來自中國。筆者的暗中觀察似乎也印證了這一點,雖然在片頭的聲明是英韓雙語,但此類視頻不少沒有遮蓋原視頻的廣告或字幕,無論是繁體中文還是簡體中文。

"K-POP歌手的Deepfake創作可能出自他們的ANTI之手,"南加州大學一位學術興趣包括K-POP和全球文化在內的助理教授李惠珍博士這樣懷疑, "考慮到K-pop完全是關於形象的(特別是對於因保持其聲譽必須以清純形象示人的女性K-POP偶像而言),沒有什麼能比玷汙K-POP偶像的名聲、在此過程中盡情羞辱她們更令ANTI感到滿意了。"

3 真與假:肉眼可以識別技術造假嗎?

FakeApp、ZAO、顏技……由deepfake衍生出的APP與類似的算法得到的“臉”真的很自然嗎?

對於之前沒有接觸過這方面的人來說,第一次接觸時可能會say Yes!

然而目前的Deepfake視頻不是用整個頭部的外圍線進行合成,而是隻根據臉部輪廓內側部分的膚色進行調換。在我們人腦對人物的識別和判斷過程中,

髮型和麵部輪廓也起很大作用,如果合成對象擁有與被替代人臉截然不同的面部輪廓,即使合成得本身很自然,但看起來仍然完全不是同一個人。

另外,雖然沒有任何妨礙物的一般面部表情合成沒有什麼問題,但Deepfake對於沒有提供的信息也不能做出正確的應對——面部附近有其他物體,臉部被部分物體遮住,以及當合成對象面部表情的學習量過少時,都會出現種種不自然的表情甚至模糊的色塊

韓國的集體性暴力不止N號房?當deepfake遇到KPOP!

知乎用戶@未桓 這姐姐神仙不?

為什麼我們初次看會覺得像呢?雖然Deepfake一般不對聲音進行處理,但由於是與面部表情適當地搭配,即使聲音不同,口形與畫面一致非常容易給人造成一種很自然的感覺。

如果意識到了這種特性,量產型的Deepfake影像很容易看穿。但相反——為了避開這種缺點,選擇與合成對象相似的體型和臉型相似的人的影像,並在非常多樣的狀態下學習對象的面部表情,就容易達成“以假亂真”、“安能辨我是雌雄”的效果。

若尋找到足夠合適“基底”的對象、餵飽足夠多的學習量、避免面部的不自然,“換臉”確實可以足夠逼真!等等,現有的Deepfake沒有換身體對吧?原來的視頻應該是有打碼的對嗎?

這樣一想,似乎,也沒有那麼的“真”?

然而,在這個技術飛速進步的時代,“臉”都可以換,“身體”憑什麼不能換?

2018年,美國研究人員發佈了名為《人人皆為舞王》的視頻,視頻中專業舞者的動作被“移花接木”到業餘愛好者的身上。去年6月,一款名為DeepNude的應用發佈,可以根據身穿衣服的正常照片自動生成裸體全身照片,將暴露較多的照片合成裸照,效果如下。

韓國的集體性暴力不止N號房?當deepfake遇到KPOP!

圖源:Motherboard

全身Deepfake還需要多久就能實現與現實難以區分?有可能這只是時間問題。

韓國的集體性暴力不止N號房?當deepfake遇到KPOP!

圖像取證專家Hany Farid指出:“一旦全身深度偽造能實現,就不會滿足於只模仿面部了,你可以模擬人們不同場景下發生的活動。這樣的場景即將成為現實嗎?可能不會在近期出現。但最終,在一兩年內,人們將能夠實現全身深度偽造,而且它將具有令人難以置信的強大功能。”

去除視頻的馬賽克就更簡單了,許多軟件都可以實現,這裡不再展開贅述。最後談談我國政策,警告一下蠢蠢欲動的老司機們“大膽的想法”——

韓國的集體性暴力不止N號房?當deepfake遇到KPOP!

第十條至第十三條均針對利用深度學習、虛擬現實等,對新技術製作的非真實音視頻進行了規定。

此外,過去韓國法律中沒有直接處罰DeepFake色情電影的條款,韓國也在2020年3月17日剛剛通過了可直接處罰DeepFake色情電影的法案,及時進行虛假事實的網絡名譽毀損可判處有期徒刑7年。

尾巴

Deepfake換臉部、DeepNude換全身、JavPlayer去除馬賽克,技術的濫用絕不止於色情片,還會引發爭議事件甚至災難性後果,建議大家不要去點擊、點贊或分享類似的應用與網址




未注圖源網絡侵刪,所有圖例均屬虛假!

韓國的集體性暴力不止N號房?當deepfake遇到KPOP!


分享到:


相關文章: