程序員會這招,就不用擔心被女朋友嫌棄了

如果你會圖像風格遷移…
那麼,暗戀的女生就再也不能以“我們畫風不同不能相愛拒絕你了”!哈哈,這個笑話是有點冷。
程序員會這招,就不用擔心被女朋友嫌棄了


好了,現在言歸正傳,相信每個人第一次看到攝影APPprisma時,都被其有趣新奇的功能吸引了目光,prisma能夠為一張普通的照片賦予各種各樣繪畫流派的風格,用從古至今每個繪畫天才的筆觸,描繪出你手機鏡頭收錄的一切。比如下面這張普通得不能再普通的高樓大廈:

程序員會這招,就不用擔心被女朋友嫌棄了


如果你非常喜歡浮世繪的風格,那我們試試讓《神奈川衝浪裡》的作者葛飾北齋為你畫出眼前此景吧:

程序員會這招,就不用擔心被女朋友嫌棄了


或許我們也可以把梵高,蒙克叫上一起來玩:

程序員會這招,就不用擔心被女朋友嫌棄了


那麼有的小朋友就會問了,這個app比孫悟空72變更能變換風格,它究竟是如何做到的呢?

這其實是人工智能的一種應用,叫圖像風格遷移。

圖像風格遷移,是指讓算法學習某個畫作的風格,然後在另一張圖片上體現出這種風格。也就是說,就是藉助於卷積神經網絡,預先將畫作中的風格訓練成出模型,只要在目標照片中應用這種模型,那麼就可以生成相同風格化圖像。用過程表示的話就是:“物體識別——紋理合成——風格提取——圖片合成”。

在之前的圖中我們看到,兩張圖片一張是負責提供內容的,另一張負責提供圖像風格,這兩張用來生成一張全新的圖片。得到的圖片內容沒變,但具有了新的風格。那麼問題就在於我們是如何實現的,要回答這個問題,我們需要再深挖一些,去了解卷積神經網絡,卷積神經網絡學習到的到底是什麼?當我們給出一張圖片,卷積網絡會對它做什麼?

卷積神經網絡在誕生之初被設計用來對圖片進行分類,近年來它也被應用到了諸如圖片分割,圖像風格遷移及其他有關計算機視覺方面的工作上,也可以用於自然語言的處理。卷積神經網絡是深度學習中解釋起來最直觀易懂的模型之一,因為他們的表徵能夠做到可視化,從而我們可以理解它們可能學到的內容。

當我們在談論圖片融合時,我們在談論什麼?—我們需要對比兩張圖片的內容和風格。故我們需要計算風格圖片和目標圖片的相似度,或者說是找出差異性,儘可能去消除其中的差異性;這樣我們就能夠量化我們的目標了。

即使同一個物體在不同的光照條件下,輪廓、形狀也可能大相徑庭,而物體識別的難點也就是在不同的變量(比如不同光線)之下對物體存在的感知,這意味著神經網絡要把圖片內容從它處在的風格中剝離出來。

問題是如何把繪畫大師作品中風格迥異的筆觸與超脫想象的用色“總結”成一種風格濾鏡,然後像格式刷一樣刷給照片?這個問題卷積神經網絡的“過濾原理”可以回答。

卷積神經網絡也是通過一些可供“調教”的參數,分層處理圖片以便實現某些目的,例如目前應用最為廣泛的物體識別,圖片分類,也可以用於圖片降噪或去模糊。

程序員會這招,就不用擔心被女朋友嫌棄了


也正如其他的人工智能神經網絡一樣,卷積神經網絡的運行方式是前向分層處理。一張圖片相繼通過神經網絡的各個分層,最後一層產生的圖片即為最終結果。每一層都有一組參數,在運行過程中被不斷訓練。這些可調教的參數決定了每個“過濾層”的功能。圖像每經過一個“過濾層”都會產生一組“濾後圖像”,每一張“濾後圖像”都代表了原始圖像的某一特徵(邊緣、角度、輪廓等)。通常,當一張圖像經過了多層過濾之後,後面留下的特徵會越來越抽象。例如,如果卷積神經網絡被訓練用於物體識別,更深層次的“過濾層”更能“感知”到物體的存在而非具體的像素值。

經過多年發展,用於物體識別的卷積神經網絡表現已經越來越好,挑戰門檻也越增越高。機器學習在互聯網應用中已經無處不在:Facebook利用它來決定哪條新聞出現在你的時間線上,Google圖片用它來做面部識別。微軟的Skype Translator利用機器學習把演講實時轉換成不同的語言。Google還利用DeepMind 為它晝夜運行的數據中心節能降耗。而基於深度神經網絡的人臉識別技術已經廣泛應用於線下的身份認證。

人工智能不只像阿爾法狗那樣,是離我們的生活很遠。大家覺得人工智能時代已經到來了嗎?其實答案是肯定的,越來越多產品,像天貓精靈,掃地機器人,各種各樣的APP紛紛進入我們的生活。圖像風格遷移,只是其中的冰山一角。以後各種頂尖的人工智能技術將繼續平民化,實現在各種移動硬件上。

最後

以前分享的那些資料的自動回覆我都刪了,大家不要去試了,謝謝各位老鐵配合。


分享到:


相關文章: