攻擊者將如何利用人工智能技術來滿足己需?

攻擊者將如何利用人工智能技術來滿足己需?

事物往往都是具有兩面性的,一項新技術在造福人類的同時,也很可能被不法分子們利用。正因如此,有越來越多的安全人士開始擔憂,人工智能技術的發展會對未來網絡安全帶來威脅,因為與防禦一方相比,攻擊一方更容易操控機器學習算法來獲得自己想要的“結果”。

攻擊者將如何利用人工智能技術來滿足己需?

攻擊者將如何利用人工智能技術來滿足己需?

“百科”一下你會發現,對抗性機器學習(以下簡稱AML)是一個“機器學習與計算機安全的交叉學科,旨在對垃圾信息過濾、惡意軟件監測和生物特徵識別等對抗性設置中安全部署機器學習技術。AML希望在對抗性環境中應用機器學習算法後,能夠更好地理解這些算法,而所謂對抗性設置,則指的是任何一個讓攻擊者因為財務動機或其他動機而迫使機器學習算法採取不端行為的設置。

然而,由於機器學習模型的設計和訓練過程是為了獲得良好的平均表現,而未必考慮過最差表現,所以存在很大的攻擊面,因此從安全角度看,往往最易受到攻擊。也正因如此,這些系統很容易遭到通用攻擊。一般來說,聰明的攻擊者可以通過操縱例子攻擊訓練模型,導致機器學習算法給某些案例添加錯誤的標籤或學會被曲解的模型;也可以通過查找代碼漏洞攻擊實施過程;或是利用機器學習算法的“黑盒子”特性。下面,我們就不妨與各位來聊一聊,未來攻擊者將會如何利用AI獲得暴利。

讓釣魚網站躲避安全檢測

釣魚網站憑其超高的偽裝技術,肆意的進行網絡欺詐,一般用戶難以辨認。目前我們已知的是,Google的釣魚網頁分類器就是通過機器學習訓練得到的,而攻擊者則利用逆向工程技術獲得分類器的部分信息,其所生成的新釣魚網頁能100%的避開Google釣魚網頁分類器。

攻擊者將如何利用人工智能技術來滿足己需?

攻擊者通過成功破解谷歌釣魚網頁過濾器(以下簡稱GPPF)分類模型,可從中獲取足夠的知識(像分類算法、得分規則和特徵等)以進行有效的躲避攻擊,通過逆向工程可以獲取84.8%的評分規則,其中涵蓋了絕大多數的高權重規則。因此,在100個真正的釣魚網頁進行測試後發現,所有釣魚網頁100%都可以輕鬆的繞過GPPF檢測,從現有研究結果來看,現有的客戶端分類器很容易受到分類器針對性攻擊。

更高級別的魚叉式釣魚攻擊

我們說,在反安全領域中最有效的網絡釣魚攻擊就是魚叉式網絡釣魚,該種攻擊可侵入所有的防禦層,很多數據洩露事件都始於魚叉式網絡攻擊。而AML另一個更明顯的應用是使用智能社會工程中的文本到語音轉換、語音識別和自然語言處理類似算法,利用時間遞歸神經網絡教授軟件的電子郵件寫作風格,從而增強其真實性與可信性。因此,理論上講網絡釣魚郵件或將變得更加複雜和更具可信性。

攻擊者將如何利用人工智能技術來滿足己需?

邁克菲實驗室在2017年曾預測,攻擊者將越來越多地利用機器學習分析大量被盜記錄,以識別潛在受害者並構建能夠更加有效針對這些目標人群,內容詳盡的釣魚類電子郵件,且在社交平臺上測試後發現,為用戶量身定做的釣魚帖子,其點擊率是有史以來所報道過大規模釣魚攻擊活動中最高的。

讓機器學習引擎失效

一個更簡單形式有效的方式是,讓用於檢測惡意軟件的機器學習引擎失效,就像以往攻擊者對殺毒引擎所做的一樣。眾所周知,機器學習模型要從輸入數據中進行學習,一旦數據池“中毒”,那麼輸出也會“中毒”。

創建惡意軟件

機器學習可以用來幫助創建惡意軟件嗎?儘管我們的初衷是用機器學習來檢測惡意可執行文件,然而,分析安全情報卻發現,機器學習和深度神經網絡存在被躲避攻擊所迷惑的可能性。如果網絡安全企業的AI可以學習識別潛在的惡意軟件,那麼黑客AI就能夠通過觀察學習防惡意軟件AI做出決策,使用該知識來開發“最小程度被檢測出”的惡意軟件。

攻擊者將如何利用人工智能技術來滿足己需?

實際上,惡意軟件作者在大多數情況下無法訪問惡意軟件檢測系統所使用機器學習模型的詳細結構和參數,因此他們只能執行黑盒攻擊,通過構建生成對抗網絡算法來生成對抗惡意軟件樣本,從而繞過基於機器學習的黑盒檢測系統。

不可否認,人工智能技術的發展的確為網絡安全帶來新機遇,然而挑戰也隨之而。如今,我們正利用AI技術增強自己的防禦能力,但與此同時,黑客也在逐漸利用AI漏洞建立對抗樣本以躲避攻擊。雙方在各自的領域進行更多嘗試的同時,也將在人工智能領域開始一場新的博弈,至於誰能獲得最終勝利,仍需時間來驗證。


分享到:


相關文章: