看英偉達是如何訓練機器人進行深度學習的

2016年初,可能大家都知道,AlphaGo這個系統打敗了圍棋世界冠軍李世石,這非常出乎人們的預料。從而把AI人工智能再一次推向浪潮。

目前來看,工業機器人是使用最廣泛的,但是想要投入市場使用,仍然需要先做一些特定的編程規則,關注的只是單一領域中單一類型的任務。一旦場景出現變化,機器人就需要再次從頭開始學習整個任務。雖然機器人理解現實世界的方式與人類有所區別,但理想狀態下,我們還是希望機器人能夠和正常生物一樣,用“手把手來教”這種更加直觀的方式,讓它能夠自主學習並理解工作流程。

近日,英偉達開發了一套訓練機器人的系統,教機器人如何通過觀察人類活動來行動。研究人員用 GPUs 給不同物體打上標籤,並開發了一組程序,讓機器人先感知人與物體的位置和互動,再讓它重複捕捉到的步驟,模擬人的動作。

英偉達最初的應用使用 Baxter 機器人,學會了在實驗室環境中拿起並移動彩色盒子。從這類研究中獲得的經驗可用於對機器人的再訓練,以及開發能在工業環境和家庭環境中安全使用的機器人。

看英偉達是如何訓練機器人進行深度學習的

從機器人攝像頭的視角中看到,機器人模仿人類的流程,將各種不同顏色的方塊按順序堆疊在一起。雖然看上去並沒有什麼特別,但這個機器人此前並沒有接受過“按黃綠藍順序擺放方塊”這一特定任務的訓練,也就是在沒有經驗的情況下完成了目標。

看英偉達是如何訓練機器人進行深度學習的

這套重新開發的程序有一系列的深度神經網絡,造價極高,用於感知、規劃和控制,這些網絡使用合成的數據來訓練。機器通過進行感知和讀取人類行為,然後用數據訓練執行該動作。其實一個人通過觀察和提供評論(例如,“好工作”或“糟糕的工作”)來教導機器人如何做事,就像我們人類訓練狗去變戲法一樣。使這種類型的機器人或計算機程序的培訓,通過圖像看世界,這是設計可以在現實世界中運行的學習代理的重要第一步。

其實我覺得模擬情景是訓練機器識別的好方法。通過不同的場景,可以培養機器人感知各類不同的物體。在其訓練過程中,機器需要嚴格的圖像和視覺模擬。人類只需要在機器人面前示範一次,就讓機器人完成感知、規劃和執行這一“模仿和學習”的流程,讓機器人能夠理解只演示了一次的新任務。英偉達 20 年圖形處理和 AI 計算的經驗,對機器識別的助益是非常大。

目前的機器人大多應用於規範流程的機械化操作。如無人送貨、無人倉、掃地機器人等,真正可以模擬人類工作的機器人暫未大規模商業化。

看英偉達是如何訓練機器人進行深度學習的

Hey!

掃碼關注:文海機器人,獲取更多機器人知識


分享到:


相關文章: