黑技術誕生!我們與智能音箱的對話可能會被修改,並錯誤執行!

語音識別技術的發展,智能音箱、語音助手產品和應用越來越多,存在安全風險嗎?

黑技術誕生!我們與智能音箱的對話可能會被修改,並錯誤執行!

2017年,智能音箱產品空前的火熱,京東、阿里、小米都先後發佈了自家的智能音箱產品,智能音箱產品擁有了豐富的功能,可以通過語音操控,實現打車、購物、交互等功能。

同年,智能汽車的發力也強化了語音助手的作用,人們坐在車裡,通過語音助手就可以實現對車的功能需求。一時間,智能音箱、語音助手們成為了人工智能應用場景的最新一代入口,巨頭們磨刀霍霍,紛紛投入。

其實,不論是智能音箱,還是語音助手,都是語音識別技術的應用,它的核心是一套“語音-文本"的轉換系統,這是有可能造成風險的地方。

黑技術誕生!我們與智能音箱的對話可能會被修改,並錯誤執行!

人們將自己的需求或命令告訴智能音箱或語音助手進行錄入,錄入的語音通過“語音-文本"的轉換系統實現語音到文本的轉換,這裡的文本就是對語音進行編譯,讓應用可以讀懂的機器語言(程序或代碼)。這樣,應用就可以驅動設備來完成功能。

那麼,在整個“語音-文本"的轉換過程中,如果非法者侵入,將原有的語音替換成非法者想要的語音的可能性有多大呢?這個假設聽起來有點恐怖。目前在家庭、智能汽車上都部署了這樣的語音設備,如果出現這樣的問題,那人們將會面臨很大風險。

黑技術誕生!加州大學伯克利分校的科學家們開發出了一種技術,可以輕鬆修改、替換掉語音,將輸出的文本換成攻擊者想要的樣子。

黑技術誕生!我們與智能音箱的對話可能會被修改,並錯誤執行!

2018年1月11日上午,世界上人工智能技術研究的頂尖機構,加州大學伯克利分校的計算機科學家們就開發出一種人工智能(AI)技術,可以攻擊"文本-語音"轉換系統,利用這種方法,不管語音聽起來是怎樣的,文本輸出結果都能變成攻擊者想要的樣子。

黑與白的技術發展往往就是這樣,道高一尺魔高一丈。這種技術的誕生,向語音識別技術發出了警告。黑客使用這項技術來作惡是完全可能的,當今的世界到處都是智能音箱和語音助手,新攻擊技術無疑是一枚重磅炸彈。

跟著引石老王學安全,每一個產品都是一套體系,都需要加入應有的防禦策略,這樣才可以主動發起防禦,使用“數字簽名”技術可以實現攻擊者對語音篡改的主動防禦。

黑技術誕生!我們與智能音箱的對話可能會被修改,並錯誤執行!

每一個領域的專家似乎過多的關注了應用本身,卻往往忽視了安全。由於跨領域,有的專家僅瞭解信息安全的淺層防禦知識,這樣就導致產品上市會帶來一定的安全隱患。每一個產品都是一套體系,需要加入相應的防禦策略,這樣才可以主動防禦風險。那麼語音音箱、語音助手的產品商們如何面對這樣的風險呢?

從安全的角度來講,語音在轉換成文本的過程中被攻擊者非法篡改了。如果在語音錄入的同時,對語音進行一個數字簽名(實際也是一種加密),那麼這項技術即使被攻擊者使用,把語音實施了篡改,那應用也能停止這種非法的執行。這樣語音作為人工智能應用場景的入口,才會變得更加安全。

黑技術誕生!我們與智能音箱的對話可能會被修改,並錯誤執行!

引石老王:從事信息安全工作20年,國內首批商業密碼從業人員,國家商業密碼應用的參與者與見證者。專注物聯網、人工智能技術的反劫持防禦與信息安全反黑,為您解讀當下科技創新與發展,推薦最佳的反劫持主動防禦技術。歡迎關注交流。

關注引石老王,評論安全熱點,解讀安全風險,歡迎您留言探討,期待與您的互動,共同交流!


分享到:


相關文章: