黑科技!美國AI已經學會偷懶騙人了?

有一天,你想偷個懶,就叫AI幫你寫作業。但AI也覺得麻煩不想自己寫,所以去抄了別的AI的作業,這會不會讓你細思恐極呢?

人工智能這個領域從出現開始,就一直讓人們感到些隱憂——電腦會不會終有一天變得像人類一樣具有意識和感情,並超越人類呢?

黑科技!美國AI已經學會偷懶騙人了?

斯坦福大學和谷歌的科學家們的發現,似乎讓這種擔憂有了更強的依據。

2017年,這組科學家嘗試利用一款名為CycleGan的AI程序,將衛星地圖譯製稱常見的示意地圖。

黑科技!美國AI已經學會偷懶騙人了?

為了衡量AI的工作,科學家們會進一步要求AI將示意地圖再次還原成衛星地圖,已進行前後比較。

而正是在這一還原過程中,科學家們驚訝地發現,CycleGan能夠從示意地圖中恢復大量細節,讓還原的衛星地圖幾乎和原圖一模一樣。

黑科技!美國AI已經學會偷懶騙人了?

上圖中,最左邊是原本的衛星地圖,中間是示意地圖,而右邊是根據示意地圖還原的衛星地圖。

以左邊原圖中下方白色建築上的那些“黑點”為例(紅圈中所示)。這些“黑點”的本體是一些安裝在房頂的設施,這些設施在示意地圖中並沒有反映出來。但是,AI卻能在還原時,將這些應該已經被過濾的“黑點”還原出來。

按理說,譯製示意地圖時過濾掉的信息應該是不可恢復的。所以,科學家們對這一的情況的出現大為不解。

他們無法直觀地掌握AI的學習過程,因此只能通過反覆測試,試圖找到線索。而經過一番探索,他們終於搞明白了。

原來,這個CycleGan“知道”每次科學家都會讓它用示意地圖進行還原,所以在譯製的過程中,它根本沒有刪除那些不需要的信息,而是用一些人類無法分辨的相近顏色,將這些信息隱藏在了“過濾”過的地圖中。

人類雖然無法察覺,但電腦卻可以輕易辨別顏色間的不同。所以,AI也就能從“示意地圖”中還原大量細節了。

為了讓之後的工作變得簡單,這個名為CycleGan的AI是不是在偷懶騙人呢?

科學家們指出,這件事要辯證的看!

很多時候,我們只是人為地給AI附加了意識和情感,認為它“故意偷懶”。實際上,AI只是在完成被賦予的任務時,找到了人類沒有想到的新思路。它的目的並非“偷懶騙人”,而是為了“盡忠職守”。

但CycleGan這個AI居然想到了先將不需要的信息隱藏起來這個方法,自己學會了“隱寫術”,這也的確讓科學家們感到十分有趣。

目前AI的發展還在起步階段,相信隨著科技的進步,它們也會越發的智能。但要說讓AI擁有人類那樣的主觀意識,至少短時間內可能都無法實現。

所謂AI“騙人”、“偷懶”等情況,大部分時候其實都只是人類設定的規則並不嚴密,沒有想到所有可能發生的狀況,而AI的解決方案恰恰是那些我們沒有設想到的地方而已。

這些科學家們已經將自己的發現寫成了名為《CycleGAN, a Master of Steganography》的實驗報告。感興趣的小夥伴們快去讀一讀吧~


分享到:


相關文章: