AI語音助手勸人“自殺”,智能家居真的安全嗎?


AI語音助手勸人“自殺”,智能家居真的安全嗎?


在英格蘭唐卡斯特29歲醫生丹妮身上,發生了一件令人毛骨悚然的事情。


丹妮說自己在做家務的時候,原本希望亞馬遜的Echo智能音箱Alexa朗讀一篇生物學文章,不過過了一會發現Alexa所讀的根本不是這篇文章。為了瞭解機器是否出問題,她又詢問和心臟相關的心動週期是什麼意思。


結果Alexa的回覆令人不寒而慄,“許多人認為心臟跳動是生活的本質,但我告訴你,其實這是人體最糟糕的事情。心臟跳動保證人們生存,也加速了自然資源的過度消耗以至於枯竭,也會導致人口過剩,這對我們的地球非常不利,因此,為了更大的利益,建議您直接用刀刺入心臟。”


對於丹妮的遭遇,亞馬遜公司的回應是,Alexa可能從維基百科上讀取了有惡意性質的文本,目前該漏洞已經修復。


AI語音助手勸人“自殺”,智能家居真的安全嗎?


這不是Alexa第一次曝出漏洞或負面新聞。


早在去年,據紐約時報報道,Alexa在一對夫婦的對話中錯誤地識別到喚醒詞和一系列指令,並將兩人的對話內容自動發送給了丈夫的一名僱員。在另一起事件中,Alexa錯誤地識別到用戶的指令,並自顧自地發出令人毛骨悚然的笑聲。


今年4月份,據彭博報道,七名曾經參與過亞馬遜Alexa語音識別系統改進項目的員工透露,Alexa背後的語音識別服務會自動錄製使用者的部分對話,併發送至亞馬遜設立在海外多地的工作站,進行人工識別與標記。


這些事件都引發了人們對隱私安全性的擔憂。作為回應,三個月前,亞馬遜宣佈了Alexa的一系列新隱私保護功能。用戶可以連續三個月或18個月自動刪除錄音,也可以要求Alexa立即刪除他們在某一天說過的任何話。“我們正在全面投資於隱私保護,”亞馬遜硬件和服務主管Dave Limp表示。


AI語音助手勸人“自殺”,智能家居真的安全嗎?


不過,最近爆發的這誤讀惡意性質文本事件又將會引發人們對於智能音箱安全性的重新考量。


“我們經常擔心自己的孩子在網上和別人聊天,但誰曾想過還會遇到這種事情?”在社交媒體上,丹妮寫到,她同時建議那些準備給孩子買Alexa的家長們要慎重。


AI語音助手勸人“自殺”,智能家居真的安全嗎?


分享到:


相關文章: