Deepfake(假貨)與真實的戰爭


Deepfake(假貨)與真實的戰爭

隨著Deepfake的問世,將真理與小說區分開來變得越來越困難。Deepfake可能破壞幾乎所有針對他們的目標-2020年的政治運動,本地或國際新聞以及時事,甚至有人離婚程序。幾乎每個從事視頻工作的新聞機構,社交媒體平臺和技術公司都在探索如何檢測和抵制深度欺詐,但是當我們開始研究本文時,發現很少有人願意談論它。

“如果技術可以創造的東西,技術應該能夠檢測它是否是一個真實的視頻或是否已經被編輯,”切赫說Peterka ,在首席技術官RadioMobile以及Verimatrix的前CTO,他專注於反盜版和法醫視頻安全。

彼得卡說:“ Deepfakes拍攝了真實的圖像,知道了當您發出不同聲音時嘴唇應該如何運動,然後像CGI圖形一樣人為地製造了嘴唇的運動,使其聽起來像您在說些什麼。” 。“音頻也會發生同樣的事情。如果有人分析了您的聲音,那麼他們就可以合成您所說的具有聲音語調,口音和其他所有內容的東西。”

這是一個新興領域,但原則上,內容安全業務Peterka以前曾有過非常相似的問題需要解決。“我知道一些視頻捕獲,編輯和壓縮技術,因此必須找到一種檢測方法。”

Deepfake的令人擔憂的蔓延

根據“ The Deepfakes The State of Deepfakes ” 的說法,Deepfakes主要用於吸引著名的女藝人,並將自己的臉龐放在色情製品上“由Deeptrace進行的一項研究,該公司負責檢測和監控合成視頻。

“我們的研究顯示,該deepfake現象正在迅速成長的在線,與deepfake視頻增加近一倍,在過去七個月14678的數量,” 寫道: Deeptrace創始人,首席執行官兼首席科學家Giorgio Patrini於2019年9月發佈。

“這種增長得益於工具和服務的日趨商品化,這降低了非專家制造深造產品的障礙。” 該公司的研究確定了多個論壇,開放源代碼,應用程序和平臺,以進行Deepfake內容創建。根據該報告,一項服務需要250張圖像和兩天的處理時間才能創建真實的Deepfake。

Deeptrace在網上發現的Deepfake影片中,多達96%是色情影片,前四大網站的觀看次數超過1.34億。其餘4%的Deepfake視頻在YouTube上找到,從政客到企業人物不等。當前許多偽造品的質量,包括操縱內容使其看起來像南希·佩洛西,唐納德·特朗普,巴拉克·奧巴馬的內容(特別是在BuzzFeed製作的視頻中)(如本文的開頭圖片所示),馬克·扎克伯格(Mark Zuckerberg)等人則可憐,以至於有些人將其稱為“便宜貨”。不過,令人擔憂的是,該技術的發展速度如此之快,以至於很難將一道假貨與真實的東西區分開。

那不是真正的貓,也不是真正的人

術語“ deepfake”來自“深度學習”和“偽造”。AI領域與創建深造假相關,其根源是一類稱為生成對抗網絡(GAN)的機器學習,在該機器學習中,神經網絡通過從訓練集中獲取數據並生成新內容來相互競爭。

芬蘭公司Valossa Labs首席執行官/首席技術官Mika Rautiainen博士說:“這完全取決於人工神經網絡捕獲實際實體,學習表示形式甚至學習數據的樣式表示形式並對該信息進行編碼的能力。”。“這些信息(用於創建)生成模型,基本上可以創建新內容。”

Valossa開發了圖像識別軟件,以識別視頻內容中的人物,物體和情感,並提取此元數據來描述正在發生的事情或用於亮點提取。Rautiainen說:“ Deepfakes已成為公司的附帶利益,我們正在研究其技術和開發方法。”

Deepfake(假貨)與真實的戰爭

為了開發新內容,無論是圖像,視頻還是音頻,機器學習都需要訓練數據。要了解貓的外觀,必須向系統展示足夠的貓,以使該系統學習貓的所有排列方式-躺下,睡覺,打架,坐著,站立以及不屬於貓的東西。為了製造既有的人做他們未曾說過的話,或者創建一個綜合的人,系統需要數據來學習。早期的工作不是很現實(如左圖所示)。

Thispersondoesnotexist.com是由Phillip Wang建立的模擬人物檔案。該網站顯示了假人的高分辨率圖像,並已被瀏覽超過5000萬次。“我們已經找到了一種方法,使計算機可以解開數據集,瞭解其下的所有模式,然後能夠重建和生成與訓練數據沒有區別的新數據。在這種情況下,它是面孔,但可能是任何東西。您可以擁有架構圖或牙科植入物。”

“高分辨率非常重要。數據質量越好,這種特定體系結構的輸出就越好,因為它們還有很多工作要做。” Thispersondoesnotexist.com使用來自Flickr開源數據集的70,000張高分辨率圖像在八個GPU上進行了為期一週的培訓。Wang說:“視頻還沒有像圖像那樣令人震驚。” “由於計算上的限制,並且隨著時間的流逝,[手段]每幀都需要保持一致。”

Wang說:“我認為解決假圖像問題可能是解決大型視頻問題的一種代理。視頻只是圖像幀的集合,因此屬於同一研究領域。” “我認為,如果您在每個框架上進行取證,肯定會有不同的說法,您可以找出是否已被修改。”

Deepfake(假貨)與真實的戰爭

恰當命名的網站“此人不存在”中的數百個AI生成的Deepfake圖像之一。

獲取培訓數據

對抗Deepfake的第一步是確定什麼是Deepfake。Facebook的首席技術官Mike Schroepfer在博客文章中說:“該行業沒有檢測[deepfakes]的強大數據集或基準。”。“我們希望在這一領域進行更多的研究和開發,並確保有更好的開源工具來檢測深造。這就是為什麼Facebook,人工智能夥伴關係,微軟以及康奈爾技術,麻省理工學院,牛津大學,加州大學伯克利分校的學者,馬里蘭大學,學院公園大學和奧爾巴尼-SUNY大學一起建立了Deepfake檢測挑戰賽 (DFDC)。”

參與者將競爭創造檢測和防止被操縱媒體的新方法。Facebook正在為此提供超過1000萬美元的資金,並且正在使用付費演員,而不是Facebook用戶數據。亞馬遜還加入了DFDC,並捐贈了AWS積分和技術支持。“被Facebook所產生的新的數據集,包括成千上萬的視頻。例如,無論真假,競爭對手將使用此數據集設計,能檢測出真正的或假的視頻新穎算法,” 寫道: AWS機器學習解決方案實驗室副總裁Michelle Lee。

“他們正在使用演員來製作深造視頻,因此研究團體可以嘗試找到以像素級粒度剖析媒體的方法,並使用不同的方法和方法來解碼或預測媒體是真實的還是假的。 ”,Rautiainen說。

問題是使用角色是否會創建足夠好的數據集?一家名為Dessaus的加拿大公司在Google中引用了使用付費演員製作的合成視頻。紐約時報 報道使用參考數據失敗了40%。當Dessa從其他現實生活場景中挑選其他內容進行培訓時,它能夠提高成功率。

我們肯定知道什麼?

為了發現某些東西,瞭解共同特徵是必不可少的。當今的假貨以“輕微的跡象表明音頻和視頻的運動不同步或不連續。在面部和頭部的運動之間可能存在不相交的區域,顏色或光照差異(背景和背景之間的平均照明顏色)。前景),” Rautiainen說。“通過仔細分析口述音軌,您可以映射信息並嘗試查找視頻中的相關性或相關性。”

一個問題是檢測和操縱器都在尋找相同的東西。如果檢測工具正在尋找人們微笑時魚尾紋的外觀,那麼我們知道,深造者正在考慮同一件事。Brightcove首席產品官Charles Chu說:“沒有人想出一種通用的掃描儀來檢查所有不同的技術……以我們今天對病毒檢測的看法來看。”。

一種潛在的檢測方法類似於當今用於內容保護的方法。“如果我在視頻上應用水印或應用數字簽名,則任何試圖更改該視頻的人都可能會損壞簽名或損壞水印,這會提示我該視頻存在問題, ”彼得卡說。


分享到:


相關文章: