02.27 AI造假與AI打假 終結“貓鼠遊戲”不能只靠技術


 

AI造假 vs AI打假 終結“貓鼠遊戲”不能只靠技術

  本報記者 華 凌

  人臉識別作為生物識別中的重要手段,成為了近年身份識別中最熱門的領域。但與人臉識別技術共同發展的,還有藉助機器學習系統、圖像視頻和音頻內容,更改人臉、物體或環境呈現方式的深度偽造技術。隨著這一技術的日趨成熟,其引發的諸多社會問題也開始凸顯。在對抗虛假視頻方面,目前各方在尋求技術突破的同時,也致力於在制度建設方面做出改變。

  俗話說“眼見為實”,人們往往對看到的圖像、視頻深信不疑,而隨著Photoshop、美圖秀秀等圖像編輯軟件的興起,人工智能造假技術的更迭,圖像篡改變得越來越容易,假圖片、假新聞等在網上氾濫成災,人們也愈發不敢相信自己的眼睛。


  為了應對美國大選季期間高發的虛假信息,近日,谷歌決定出手,以AI治AI。有專家指出,深度偽造技術(Deepfake)是AI發展到一定階段的產物,隨著這種技術的發展,相應的檢測技術也會越來越先進——如同“貓抓老鼠的遊戲”,將是一場永無休止的競賽。

  假視頻越來越逼真

  2019年11月,在北美上映的電影《愛爾蘭人》反響熱烈,其中令人咋舌的是電影特效製作公司運用虛擬影像重建技術,將片中主角們集體“減齡”,抹平年近80歲演員們容顏上的歲月痕跡,使之重新煥發青春。這種讓耄耋之年的演員重回年輕模樣的“換臉”技術著實讓觀眾心頭一震。

  “Deepfake專指基於人工智能的人體圖像合成技術,主要應用於‘換臉’,其在很多領域有積極的商業價值,但是一旦被‘黑產’盯上用作謀利工具,則會給個人和社會帶來風險和挑戰。”遠望智庫人工智能事業部部長、圖靈機器人首席戰略官譚茗洲介紹說。

  這其中最飽受爭議的是“換臉”技術被一些情色網站利用。不久前,網絡上走紅的“一鍵脫衣”軟件DeepNude,只要輸入一張完整的女性圖片就可自動生成相應裸照,並且生成照片存在著廣泛傳播的風險,最終在各方壓力下這款APP被下架。

  不僅如此,不久前還出現了語音版的Deepfake。加拿大一家創業公司開發出的語音合成系統RealTalk,僅基於一定的文本輸入即可生成和真人聲音十分相似的聲音。演示中,系統模仿了美國一位著名脫口秀喜劇演員、主持人的聲音,以至於本人聽後高呼“真的可怕”。而未來這種技術還可能會發展到只需幾秒鐘的音頻素材,即能複製出他人聲音的程度。

  讓人更為頭疼的是,Deepfake技術讓虛假信息“如虎添翼”,尤其在社會重大事件中能夠起到強勁攪拌作用,以至於可能會影響到人們決策以及社會穩定。據相關文獻,2016年美國總統大選前的一個月內,每個美國網民平均會接觸1—3篇假新聞。2020年初,新冠肺炎病毒席捲全國,就有造假者運用上述技術偽造鐘南山院士發言,而針對“闢謠”的百度搜索指數(1月19日—1月25日)與去年春節期間相比,增長了5.4倍。

  以AI治AI揪出假視頻

  “自Deepfake2017年年底首次出現以來,隨著其技術的開源,合成剪輯視頻的數量不斷增長。要對付假視頻,就要在網絡海量信息中,快速找到虛假圖片,並對圖像識別後精準提取其中語義,這也是目前人工智能算法上的核心研究發力點。”譚茗洲表示。

  要識別虛假視頻,首先,我們來分析一下Deepfake都有哪些招數。

  “目前圖像篡改類型主要分為複製—粘貼、拼接、圖像修補/局部區域去除和人臉PS四大類。”行業專家曹娟博士近日在接受科技日報記者採訪時指出,“既有的檢測方法主要基於手工特徵方法和深度學習的方法,前者包括基於圖像的物理屬性(光照不連續、陰影不連續、色差等)、相機屬性(顏色濾波陣列、傳感器噪聲、EXIF數據分析等)、壓縮痕跡(DCT係數、塊狀效應等)、像素級屬性(複製—粘貼、重採樣等);後者包括Encoder-Decoder模型、約束卷積模型和Multi-domain模型等。”

  “魔”高一尺,“道”可高一丈嗎?近日,谷歌母公司Alphabet旗下的Jigsaw聯手Google Research、美國馬里蘭大學等多家研究機構,開發了名為Assembler的實驗平臺,旨在幫助應用者通過簡單操作,快速識別Deepfake,減少AI技術濫用所帶來的傷害。

  譚茗洲介紹:“實際上,這個平臺是把多個圖像檢測器集成為一個工具,每個檢測器都針對特定類型的圖像進行處理。比如,有的檢測器能判斷圖像是否有複製粘貼痕跡,檢測主要關注圖像顏色、噪點等。”

  具體而言,其機器學習模型既能利用圖像的顏色值來查找異常,也能檢查圖像的噪點模式是否存在不一致。算法上,能夠查找被編輯過的JPEG壓縮圖像區域外觀相似的區塊,以判斷其中一個圖像是否被複制粘貼到另一個區域上。

  “然而,真實場景中,媒體經常面對的是經過複雜處理後編輯的低分辨率的圖像,這就給檢測技術帶來新的挑戰。光用底層算法不能準確抓住圖像上損失掉的篡改痕跡,還需要結合高層語義算法來識別。”曹娟說。

  曹娟進一步指出,現有檢測假視頻的方法尚存在三個主要侷限性。第一,通用性不夠,大部分檢測只針對特定類型的篡改,如何尋找篡改的共同屬性,讓模型能應對多種篡改類型是未來的研究重點之一。第二,對抗能力不夠,目前篡改手段不斷隱蔽,經過複雜的處理,篡改痕跡往往會消失,導致檢測性能大大下降。如何提高模型的魯棒性,應對各種真實的應用場景,是未來的核心任務。第三,目前的方法基本都是對圖像劃分成小塊,再逐塊處理,非常耗時耗資源。

  共建保證信息真實的生態體系

  國際諮詢公司Gartner曾預測:到2020年,互聯網虛假信息或產生更大危害,基於人工智能技術的造假能力或將遠超虛假檢測的能力。2018年3月,《科學》雜誌刊登的一篇論文指出:近年來虛假新聞的興起,突顯出互聯網時代現有的對抗錯誤信息制度和技術的不足,目前迫切需要重建一個保證信息真實性的信息生態系統。

  “如今更重要的是提升針對性的檢測技術、完善相關法律及認證機制。”譚茗洲強調。

  2019年9月5日,臉書(Facebook)相關負責人宣佈,臉書正與微軟公司聯合包括美國麻省理工學院、英國牛津大學、美國康奈爾大學等在內的多所大學研究檢測Deepfake的方法,同時非營利性研究組織Partnership on AI也參與其中,該組織的成員包括谷歌、蘋果、亞馬遜、IBM等大型科技公司。

  曹娟介紹說,在研究方面,除Assembler平臺之外,目前國內做的比較好的有中科院計算所、中科院自動化所、北京交通大學、中山大學、深圳大學等,國外的美國加州大學伯克利分校、美國賓漢姆頓大學、美國馬里蘭大學等。同時,很多企業和研究機構也在積極研發實用的圖像篡改檢測工具和平臺,如美國Amped Software公司開發的Amped Authenticate工具。

  2019年11月29日,國家互聯網信息辦公室發佈《網絡音視頻信息服務管理規定》,要求網絡音視頻信息服務提供者應當具有與新技術新應用發展相適應的安全可控的技術保障,部署違法違規音視頻和非真實音視頻鑑別技術。

  專家建議,防治虛假視頻,有關部門要建立相關管理制度,特別是新聞視頻、新聞內容管理方面;在傳播渠道上,要建立過濾機制,在技術上實現高效過濾,並且還要對所有造假視頻音頻實現溯源,同時,增加對檢測技術研發資金的投入,激發技術創新。


分享到:


相關文章: