如何利用人工智能通過遊戲學習單詞?

詹TT--


可以瞭解一下用到了增強學習,曾斬獲不少學院派遊戲大獎的《黑與白》(Black and White)。

《黑與白》圍繞增強學習的特點打造核心玩法,讓玩家扮演反饋提供者的角色,通過上帝視角的扇巴掌和戳怪物等反饋,來影響遊戲中各個生物的表現,從而培養出有複雜行為能力的智能生物。遊戲中的生物使用一種圍繞信念-慾望-意圖設計的行為框架,把遊戲物件、生物要達成的目標、以及達成目標所需的行為樹聯繫起來,產生出複雜的生物表現。

總的來說,一般遊戲使用機器學習技術的思路有兩種,一種是利用“學習”能力,即讓AI適應玩家或者模仿玩家,也是這裡《黑與白》所使用的,但玩家能給出的學習樣本是非常有限的,很難保證效果到位;另一種是利用學習後得出的“成果”,即得到能解決某一特定問題的強力AI,但未必能給遊戲本身的娛樂性帶來太大的提升。

單純使用機器學習的“成果”部分來提升遊戲AI水平的學術研究已經有很多了,但一般而言一個模型只能用來解決複雜遊戲中的一個子問題,比如《文明》中的城市選址,《Quake》中特定模式的最佳團隊策略等。各方面都採用機器學習技術來打造AI也不是不可能,但是相比傳統的狀態機行為樹等做法,提升的只是AI的實力,服務的只是少部分核心玩家,付出的開發成本(時間、技術人才、試錯)卻一定不少。

傳統遊戲AI的一個特點是強調可預測性(predictable),一方面是讓玩家能夠通過AI的表現很容易地倒推出AI的行為準則,然後在瞭解其規律的基礎上找尋更好的解法,從而提升自己的遊戲水平;另一方面具備強可預測性的AI能保證在動輒以十萬為基數的玩家群體中,不會出現難以預料的極端情況破壞體驗,比如無限關卡馬里奧就需要保證不會因為隨機組合而出現玩家理論上不可能通過的障礙。遊戲希望的是,玩家敗給AI是因為沒找到它的弱點,而不是單純因為AI不可戰勝,這點與提升AI實力的做法是背道而馳的。

機器學習做遊戲AI也不是唯一出路,有在遊戲的迭代檢驗部分運用相關技術的可行性。比如我做一款類似星際爭霸的遊戲,裡面存在遊戲策略的相互剋制關係,那我可以通過多個機器學習模型之間的競爭去提前演算出“天梯環境”的變化,對遊戲平衡有一個直觀的感受;比如上面提到的無限關卡馬里奧等用到過程內容生成技術的時候,結合機器學習技術來進行動態難度調整(DDA),而非設計師的腦補。在這些方向上,機器學習更像是設計師的一種工具,運用在生產過程中,而不是遊戲本體中,用來減少設計偏差,從而控制遊戲質量。

既然用機器學習提升AI的實力沒有多少實際運用的意義,真正能讓機器學習技術在遊戲中作為核心地位來使用的,還是要靠遊戲玩法上的突破性和不可替代性來支持。利用機器學習本身的“學習”能力而不是學習成果,去徹底改變玩家與遊戲的互動方式。

《黑與白》已經是一個很具開創性的方向了,但現在遊戲圈大環境浮躁保守,外加本身的技術門檻,這部作品後數十年都沒有值得一提的後來者出現了。等傳統玩法消磨殆盡,機器學習的技術進一步普及以後,或許遊戲行業會往這上面去做突破吧。

而至於你所說的英語學習,遊戲AI過程中很多時刻你就無形中在學習英語,除此之外你也可以通過其他途徑以打到英語學習的提高,覺得有用點個贊吧

(機器學習給PCG做DDA)Jennings-Teats, M., Smith, G., & Wardrip-Fruin, N. (2010, October). Polymorph: A model for dynamic level generation. In Proceedings of the Sixth AAAI Conference on Artificial Intelligence and Interactive Digital Entertainment (pp. 138-143). AAAI Press.

(增強學習-文明4城市選址)Wender, S., & Watson, I. (2008). Using reinforcement learning for city site selection in the turn-based strategy game Civilization IV. 2008 IEEE Symposium On Computational Intelligence and Games. doi:10.1109/cig.2008.5035664

(遺傳算法迭代FPS團隊策略)Liaw, C., Wang, W. H., Tsai, C. T., Ko, C. H., & Hao, G. (2013). Evolving a team in a first-person shooter game by using a genetic algorithm. Applied Artificial Intelligence, 27(3), 199-212.


分享到:


相關文章: