07.04 你需要了解的,AI在視頻造假上的進階之路

你需要了解的,AI在視頻造假上的進階之路

從古至今,“欺騙”和“造假”這兩個詞可謂是貫穿了人類的歷史。到了現代社會,面對著互聯網上那些似是而非的龐雜信息,“有圖有真相”開始成為網友們的訴求。

可以看出,絕大多數人都是認同一點的——只有拿出堅實的證據,才能證明你說的就是真相。將這些證據的說服力排一個序,大概是文本>照片>音頻>視頻。

然而,隨著PS的興起,“照騙”漸漸失去了人們的信任,音頻和視頻已經被視為更可靠的證據來源,但是,在AI入軍短視頻製作後,事情正在發生著改變。在未來,人們可能需要處理更多真假難辨的音視頻。

AI在視頻造假上的進階之路

在尋常人看來,短視頻造假的方式無非就是一些“斷章取義”的剪輯罷了。然而,AI可沒那麼簡單,在短視頻“造假”上,它不止要以假亂真,更要無中生有。

通常來說,AI在短視頻上造假的方式有以下三種:

1. 初級階段:移花接木

在短視頻“造假術”裡,最重要的不是圖像的拼接,而是音頻的連續性。想一想,即使你將奧巴馬和特朗普兩個人的視頻剪輯在一起,想要告訴大家他們“同臺演出”了,沒有他們講話的聲音,其效果大概就等於N張靜態照片疊加而已。

AI正在試圖合成人們在實際中從未說過的話,研究人員就曾利用奧巴馬的演講視頻訓練AI的學習系統,讓系統的神經網絡,學會如何將各種語音特徵與對應的口型聯繫在一起,生成CGI唇動,在3D姿態匹配的幫助下,將CGI唇動與奧巴馬的視頻整合在一起。

也就是說,他們能夠利用相關音軌偽造一段令人難辨真偽的視頻。

你需要了解的,AI在视频造假上的进阶之路

利用AI系統,用戶可以任意編輯人類語音,Adobe曾表示它可以像 Photoshop 編輯圖片一樣用於調整視頻中的發音和對話。我們現在可以創建政治家、名人、演說家的視頻片段,並且不論內容如何。

2. 中級階段:改頭換面

在這個階段裡,AI就不是合成了,而是對視頻裡的內容進行編輯。通過人臉檢測和五官識別,對人臉的關鍵點實時追蹤,讓人們在動態視頻中可以對自己臉進行改造。

你需要了解的,AI在视频造假上的进阶之路

這一技術屬於動作捕捉技術中的一個分支,叫面部捕捉。這些臉上的黃點,就是人臉表情變化中的關鍵點,通過面部追蹤,計算機只需要這些信息就能合成表情。

近日,微視就發佈了安卓4.4版本,推出了實時美妝、五官重塑等新功能,包括此前已在iOS版本上線的實時長腿、音控魔法功能,也在安卓上同步更新。

你需要了解的,AI在视频造假上的进阶之路

視頻裡化妝都是小兒科了,AI還能在視頻裡給你換臉呢。在電影《星球大戰外傳:俠盜一號》中,技術人員通過捕捉一位現代演員蓋·亨利的表情,合成了另外一位已經逝世的演員彼得·庫欣,使其再次出現在了大熒幕上。

3. 高級階段:無中生有

合成聲音尚能理解,合成動作你敢相信嗎?

近日,在MIT(麻省理工學院)的論文Synthesizing Images of Humans in Unseen Poses中,研究人員提出了一種模塊化的生成神經網絡,用從人類運動視頻中提取的成對圖像和姿勢訓練之後,它能夠為一個人合成出沒做過的新姿勢。而且,這個模型在沒有經過刻意訓練的情況下,能夠生成一段連續的視頻。

也就是說,單憑一張照片,AI就能隨意擺佈照片中的人,使人物作出一系列動作,視頻的合成非常自然。

你需要了解的,AI在视频造假上的进阶之路

這當然只是新技術的冰山一角,我們很難對現代人工智能的視頻處理技術,做出全面的概述,但我們總能從中找出一些有意思的應用。例如:從一張 2D 圖片中創建 3D 面部模型,改變視頻中的光源和陰影,在總統選舉直播中讓特朗普變成禿頭等等。

偽造與證偽的技術總是交互上升

不得不說,AI確實具有很強的視頻造假能力,但我們也逐漸意識到了視頻造假的危害。隨意放在網上的視頻和聲音都需要我們去認真辨別,如果有非法分子利用該技術進行信息詐騙,我們雖然不是權貴,但也經不起損失。

尤其在新聞業,一旦人們知道目前有偽造的視頻和音頻在傳播,即使他們看到的是真實視頻,也會開始產生懷疑。所以,如果AI能夠讓我們像處理圖片一樣輕鬆處理音頻、視頻內容,這其實在某種程度上削弱了媒體的可信度。

幸運的是,道高一尺,魔高一丈,偽造與證偽的技術總是交互上升。這就是一場“軍備競賽”。AI讓越來越多的人都有能力進行偽造,但研究人員也不斷在開發更加精密的技術來增強音頻、圖片和和視頻的鑑別。通過不斷增加造假難度,使得非法分子造假的成本和技能要求越來越高。

現在,鑑別AI所做的偽造和處理其實並不難,模糊處理是一種最常見的方法,低分辨率就會讓它“一看就是假的。”

你需要了解的,AI在视频造假上的进阶之路

除了畫質,還有畫幅的甄別。在短視頻裡,畫面裡的一點改動憑藉人的肉眼是很難識別的。在 50% 的情況下人類是可以正確區分的,而且大部分是隨機猜測。當AI通過大量的深度學習後,卷積神經網絡可以在 87 %到 98 %的情況下,正確區分視頻畫面裡修改過的和未修改過的圖像。

德國慕尼黑技術大學的研究人員還開發了一種名為 “XceptionNet” 的算法,它能快速發現發佈在網上的偽造視頻,除此之外,還可以用來識別互聯網上的誤導性視頻。

這個人工智能算法主要集成到瀏覽器或社交媒體插件中,在後臺運行,如果它識別出被操縱的圖像或視頻,它就會給用戶發佈警告信息,向視頻中涉及的人員透露他們被“偽造”了。

造假不如造回憶

仔細想一想,“造假”似乎總是讓人有著不好的聯想,尤其是多媒體的造假,更是怎麼看都覺得可怕。然而,還是那句老話,技術是無罪的,有罪的是那些有著邪惡用心的人。

將AI造假術的使用者換一批人,是不是更能物盡其用呢?

有人說,人會經歷三次死亡:

  • 第一次是身體停止運轉導致的生理上死亡;
  • 第二次是舉行完葬禮代表你社會位置的消失;
  • 第三次是當世界上沒人再記得你的時候,真正意義上的死亡。

當你的親人即將離開這個世界的時候,你是否想過用科技的方式,將親人的音容笑貌化為情感寄託,換一種形式陪伴在你身邊呢?

也許這樣,也能讓親人的“第三次死亡”來得更慢一點。

目前,就已經有人通過語音合成技術記錄下了自己的聲音,將自己的聲音載入了一個智能音箱,以此來確保即使在自己去世後,親人也能與自己進行語音交互。而如果能通過一張照片就換來親人“栩栩如生”的動態,未嘗不是人們一解相思之苦的辦法。

AI造假短視頻應該是一個不斷提升價值的過程,而不是被宵小們所利用。

  • 一方面,AI可以建立豐富的數據庫,依賴於深度學習來進行更多應用場景的選擇,使得這些在視頻裡被“復活”的人們,能夠在不同的場景裡出現,滿足人們的更多情感需求。
  • 另一方面,將造假變成造回憶,收集某個人的圖像和音頻素材,為用戶個性化建模,實現一對一的記憶歸屬。

結論

其實,我們完全不用把AI造假想得那麼壞。技術不是目的,只是手段,找對了用途,“造假術”也是有情懷的。

【完】

題圖來自Unsplash,基於CC0協議


分享到:


相關文章: