DeepMind的AI再次打敗人類玩家,“攻下”57款雅達利遊戲

Agent57為我們構建更加強大的AI決策模型奠定了基礎。

AI打遊戲會比普通人優秀?DeepMind給了肯定的答案。近日,DeepMind宣佈它們的智能體Agent57首次在所有57款雅達利遊戲上超越人類玩家。

DeepMind的AI再次打敗人類玩家,“攻下”57款雅達利遊戲

近年來,DeepMind一直在研究提高智能體在遊戲環境下的智能性,通常情況下,智能體在遊戲中能夠應對的環境越複雜,它在真實環境中的適應能力也會越強。

此次Agent57挑戰的街機學習環境(Arcade Learning Environment,ALE)包括57款遊戲,為智能體的強化學習提供了複雜的挑戰。

而之所以會選擇雅達利遊戲作為訓練的數據集,DeepMind表示雅達利遊戲足夠多樣化,可以評估智能體的泛化性能,其次它可以模擬在真實環境中可能遇到的情況,並且雅達利遊戲是由獨立的組織構建,可以避免實驗偏見。

據悉,Agent57在多臺計算機上並行執行,並啟用強化學習算法(Reinforcement learning,RL)驅動智能體採取行動,使得獎勵的效果最大化。此前,強化學習在遊戲領域就取得不少進展,比如OpenAI的OpenAI Five和DeepMind的AlphaStar RL智能體分別打敗了99.4%的Dota 2玩家和99.8%的星際2玩家。

DeepMind的AI再次打敗人類玩家,“攻下”57款雅達利遊戲

圖 | Agent57的框架

雅達利遊戲中的Montezuma、Revenge和Pitfall都很難,AI必須先嚐試多種不同的策略,才能找到可行的方法。而在Solaris和Skiing遊戲中,需要一段時間才能顯示決策結果,這意味著AI必須在相當長的時間內收集儘可能多的信息。

Agent57通過讓不同的計算機研究遊戲的各個方面來克服了這些難題,然後將收集到的信息反饋給一個控制器,由控制器對所有這些因素進行分析以制定出最佳策略。

DeepMind將Agent57與當前最先進的算法MuZero、R2D2和NGU做了比較,Agent57顯示出了更高的平均性能(100)。

DeepMind的AI再次打敗人類玩家,“攻下”57款雅達利遊戲

研究團隊表示,“這並不意味著雅達利遊戲研究的結束,我們不僅要關注數據效率,也需要關注總體表現,未來的主要改進可能會是Agent57在探索、規劃和信度分配上。”比如減少AI運行的算力,在集合中的一些較簡單的遊戲中變得更好。

Agent57在雅達利遊戲中取得超越人類玩家的成績,為我們構建更加強大的AI決策模型奠定了基礎:AI不僅可以自動完成重複性的任務,也可以自動推理環境。


更多優質內容,請持續關注鎂客網~

DeepMind的AI再次打敗人類玩家,“攻下”57款雅達利遊戲


分享到:


相關文章: