驗證碼這麼難,是機器太聰明還是人太笨?

驗證碼這麼難,是機器太聰明還是人太笨?

原文來自THE VERGE,作者Josh Dzieza

原文鏈接:https://www.google.com/search?q=%E2%80%8Bhttps%3A%2F%2Fwww.theverge.com%2F2019%2F2%2F1%2F18205610%2Fgoogle-captcha-ai-robot-human-difficult-artificial-intelligence&oq=%E2%80%8Bhttps%3A%2F%2Fwww.theverge.com%2F2019%2F2%2F1%2F18205610%2Fgoogle-captcha-ai-robot-human-difficult-artificial-intelligence&aqs=chrome..69i57j69i58.771j0j7&sourceid=chrome&ie=UTF-8

有一次,Google不斷要求我證明自己的人類身份,且這一流程越來越咄咄逼人。“我不是機器人”的按鈕過於簡單可愛,以至於現在我們愈發需要通過其他操作證明自己的身份。

系統可能要求我們選擇圖像網格中所有的紅綠燈、人行橫道或者店面。很快,驗證碼中的紅綠燈就被埋在了遠處的樹葉裡;人行橫道彎彎曲曲,在拐角處若隱若現;店面的招牌變得模糊不清,而且還是韓文標語。有的還要求用戶辨認一個消防栓,這也太難了。

這些俗稱驗證碼的測試被稱為CAPTCHA,這是一個縮寫,意思是區分用戶是計算機或人的公共全自動進程,它們一度達到了這種不可理喻的難度。

在21世紀初,簡單的文本驗證碼足以阻擋大多數垃圾郵件。但十年後,在Google從卡內基梅隆大學的研究人員那裡購買了這個程序,用於Google圖書的數字化之後,文本變得越來越扭曲模糊,以求領先於不斷進步的光學字符識別程序。

從某種意義上來說,所有試圖解決驗證碼難題的人都在幫助改進這些程序

由於驗證碼是訓練人工智能(AI)的一個絕佳工具,任何給定的測試都只能是暫時的,這是其發明者在一開始就承認的事實。所有這些研究人員、騙子和普通人都在AI能力的極限下解決了數十億個謎題。

未來某個時刻,這些機器將會超過我們。2014年,Google讓一種機器學習算法與人類競爭,來識別最扭曲的文本驗證碼:計算機的正確識別率有99.8%,而人類只有33%

Google隨後訴諸於NoCaptcha ReCaptcha,它通過用戶點擊“我不是機器人”按鈕,來觀察用戶數據和行為。有些情況可以直接通過,有些時候就需要完成圖片選擇驗證。

驗證碼這麼難,是機器太聰明還是人太笨?

但是機器又一次迎頭趕上了人類的表現。那些似是而非的圖片,就成了人類與機器的決賽。

芝加哥伊利諾伊大學計算機科學教授傑森·波拉基斯認為,如今驗證碼難度的增加有他的一份功勞。2016年,他發表了一篇論文,利用現成的圖像識別工具,包括Google自己的反向圖像搜索,以70%的準確率解決了Google的圖像識別問題。

其他研究人員則利用Google自己的音頻識別程序解決了Google的音頻驗證碼。

波拉基斯說,機器學習在基本的文本、圖像和語音識別任務上已經和人類達到了差不多的水平。事實上,算法可能在這方面做得更好:“我們為了讓軟件更難識別驗證碼,反倒給人們帶來了更大的不便。我們需要一些替代方案,但目前還沒有具體計劃。”

關於驗證碼的文獻中充斥著錯誤的出發點和奇怪的嘗試,試圖找到人類普遍擅長的、機器難以對付的文本或圖像識別以外的東西。

研究人員試圖讓用戶根據面部表情、性別和種族對人物圖像進行分類。也太離譜了。有人提議使用一些瑣碎的驗證碼,以及基於大家都熟記於心的兒歌的驗證碼。這種文化驗證碼不僅針對機器人,還針對海外的驗證碼碼農,他們靠破解驗證碼獲利。

最近有人致力開發遊戲類型的驗證碼,要求用戶將對象旋轉到特定角度或將拼圖塊移動到位,指令並非以文本形式給出,而是以符號形式給出,或根據遊戲界面的上下文暗示得出。他們覺得人們能夠理解這種謎題的邏輯,而機器則會因為缺少明確的指令而陷入困境。

其他研究人員試圖利用人類有實體這一事實,使用設備攝像機或增強現實技術來交互,證明人類的身份。

許多測試的問題其實不一定在於機器人太聰明,而在於人類的表現太差。這並不是說人類太蠢,而是人類在語言、文化和經驗上有著廣泛的多樣性。

如果不考慮所有這些,就去設計一個任何人類不需要事先訓練或深思熟慮都能通過的測試,你只能選擇像圖像處理這樣的殘酷任務,而AI也會愈發擅長這種任務。

“測試受到人類能力的限制,”波拉基斯說,“不僅是我們的基本能力,你還需要一些跨文化、跨語言的能力。你需要設計出希臘、芝加哥、南非、伊朗和澳大利亞的人都能同時達成的某種挑戰,它必須獨立於複雜和差異性的文化。”

“你設計出的驗證碼要讓所有普通人都能輕而易舉地完成,而非特定的人群,同時這種測試也要讓電腦難以通過。這給實際工作帶來了很大的限制。這種驗證必須是人們能很快完成的事情,而且不會太煩人。”

如何解決這些模糊的圖像問題很快上升到了哲學層面:什麼是可以向機器展示但機器又無法模仿的人類普遍素質?什麼是人類?

但也許我們的人性不是由我們如何完成一項任務來衡量,而是由我們如何在世界(或互聯網)上行動來衡量的。

舒曼·戈斯馬尤德說,遊戲驗證碼、視頻驗證碼,不管你設計的是什麼樣的驗證碼測試,最終都會被破解。他曾在Google負責打擊點擊欺詐,後來成為機器人檢測公司Shape Security的首席技術官。

相比測試,他更喜歡所謂的“持續認證”,這種操作本質上就是觀察用戶的行為並尋找自動化的跡象

“真正的人類無法很好地控制自己的運動機能,他們無法每次都以同樣的方式移動鼠標。”戈斯馬尤德說。機器人無需移動鼠標,或可以非常精確地移動鼠標來與頁面進行交互,而人類的行為具有難以模仿的“熵”。

Google自己的驗證碼團隊也在思考類似的問題。2018年底發佈的最新版本reCAPTCHA V3使用“自適應風險分析”,根據可疑程度為流量評分。

網站所有者可以選擇向潛在危險用戶提出挑戰,比如密碼請求或雙因子身份驗證。根據驗證碼團隊的產品經理西·霍爾梅的說法,Google不會披露評分標準包含哪些因素,只是說Google會觀察網站的“優質流量”有哪些特徵,並以此來檢測“劣質流量”。

安全研究人員說,評分因素很可能是cookie、瀏覽器屬性、流量模式的混合,以及其他因素。新的機器人檢測模式有一個缺點——體驗不佳,需要在瀏覽網頁的同時進行最小程度的監視,因為VPN和反跟蹤擴展等東西會讓用戶被標記為可疑。

Google驗證碼團隊的工程主管亞倫·馬倫芬特說,放棄圖靈測試是為了避開這場人類不斷輸掉的競爭。

“隨著人們在機器學習上投入越來越多的資金,這些挑戰對人類來說越來越難,這也是我們推出CAPTCHA V3的原因,我們想要走在這一趨勢前面。”

馬倫芬特說,5到10年後,驗證碼可能根本不可行。相反,大部分網頁都會有一個持續的、秘密的圖靈測試在後臺運行。

《最有人性之人》一書中,布萊恩·克里斯蒂安作為人類對照參加了圖靈測試比賽,他發現,在對話中證明人類身份是相當困難的。

另一方面,機器人很容易通過測試,並非因為它們是最能言善辯或最聰明的健談者,而是因為它們用不符合邏輯的笑話和錯誤輸入來回避問題。

在2014年機器人贏得圖靈比賽的案例中,機器聲稱自己是一個13歲的烏克蘭男孩,無法很好掌握英語。畢竟,犯錯是人之常情。

世界上使用最廣泛的圖靈測試驗證碼也有可能迎來類似的未來——這場新的軍備競賽並不是要創造出在標記圖像和解析文本方面超越人類的機器人,而是那些會犯錯、錯過按鈕、分心和切換標籤的機器人。

“我想人們已經意識到了。現在已經有一個應用程序可以模擬普通的人類用戶……或者說是比較蠢的人類用戶。”

驗證碼也可能會永遠存在。Amazon在2017年獲得了一項專利,該專利涉及人類在破譯視覺幻覺和邏輯謎題時遇到的巨大困難。這被稱為通過失敗進行的圖靈測試,成功唯一的方法是給出錯誤的答案。

驗證碼這麼難,是機器太聰明還是人太笨?


分享到:


相關文章: