突發!騰訊AI Lab主任張潼離職,或將返回學界

經多方消息確認,騰訊 AI Lab 主任張潼已於 2018 年 12 月底離職。作為人工智能領域的著名學者,張潼可能將返回學術界。


在宣佈離職之前,張潼是騰訊 AI Lab 的第一負責人,也是該機構的執行董事。張潼博士是美國康奈爾大學數學系和計算機系學士,以及斯坦福大學計算機系碩士和博士學位。加入騰訊前,張潼博士曾經擔任美國新澤西州立大學教授、IBM 研究院研究員、雅虎研究院主任研究員、百度研究院副院長和大數據實驗室負責人,期間參與和領導開發過多項機器學習算法和應用系統。

加入騰訊 AI Lab

騰訊 AI Lab 成立於 2016 年 4 月,致力於研發前瞻性的人工智能技術。2017 年 3 月 23 日,騰訊宣佈任命人工智能領域頂尖科學家張潼博士擔任騰訊 AI Lab 主任。張潼博士作為騰訊 AI Lab 第一負責人,在一年多以來帶領數百名人工智能專家和工程師,專注於人工智能的基礎研究。其中的主要方向包括計算機視覺、語音識別、自然語言處理和機器學習這四個垂直領域。

在 2017 年 3 月接受機器之心專訪時,張潼曾表示:「我們(騰訊 AI Lab)一方面做基礎研究,另一方面開發系統和工具為公司各產品線做技術支持。AI Lab 會支持一些重點業務,並且以此積累核心技術,然後會通過平臺化雲服務等方式向公司內部和外部進行推廣,讓這些技術服務更廣泛的應用場景。」

和全球最前沿的研究機構一樣,騰訊 AI Lab 在遊戲 AI 場景中取得了不少成績,他們推出的 AI 圍棋程序「絕藝」曾在第 10 屆 UEC 杯計算機圍棋大賽中奪得冠軍。

2018 年 12 月 22 日,騰訊 AI Lab 提出的策略協作型 AI「絕悟」首次露面,並在 KPL 秋季決賽戰勝了前職業 KPL 選手組成的人類戰隊(平均水平超過 99% 玩家)。這是繼圍棋 AI「絕藝」後,騰訊 AI 在深度學習與強化學習領域的又一項前沿研究。


突發!騰訊AI Lab主任張潼離職,或將返回學界


張潼曾表示,騰訊 AI Lab 希望將自身研究成果轉化為平臺,並面向所有開發者。

下一站學界?

2018 年底,機器之心已得到消息稱張潼將離職騰訊 AI Lab。今日,在知乎帖子「如何看待張潼老師離職騰訊?」下,點贊量最高的一條回覆稱張潼「據說是回學術界去了」,其中也提到「……也希望接替他的張正友博士能帶領 AI Lab 找到新的發展道路。」

所以,接替張潼博士負責騰訊 AI Lab 的應該是 2018 年加入騰訊掌管機器人實驗室「Robotics X」的張正友博士。

至於張潼博士的去向目前還沒有更多信息,在知乎上有匿名網友評論如下:


突發!騰訊AI Lab主任張潼離職,或將返回學界



2018 年,楊強教授在港科大 CSE 系主任職位的任期已滿,而後由楊瓞仁 (Dit-Yan Yeung) 教授代理系主任的職務。但據機器之心消息,目前楊瓞仁 (Dit-Yan Yeung) 教授暫代主任,港科大 CSE 系正在進行公開答辯選舉新的系主任,但張潼非候選人。

學術研究實力

張潼博士是 AI 領域的頂級科學家,他的研究興趣包括機器學習算法和理論、用於大數據及其應用的統計方法。


突發!騰訊AI Lab主任張潼離職,或將返回學界


張潼博士 Google Scholar 引用量數據。

在去年 7 月份舉行的 ICML 2018 中,張潼有 8 篇論文被接收,是論文署名最多的作者之一。而除了 ICML 2018,張潼博士還在 Transactions ACL 和 JMLR 等期刊與會議上發表過論文。

在張潼署名的 8 篇 ICML 論文中,涉及主題可以分為三大方面,即新模型、分佈式與去中心化、機器學習優化方法與理論研究。

首先對於新模型的研究,張潼博士提出了一種使用強化學習的端到端的主動目標跟蹤方法,可直接根據畫面情況調整攝像頭角度。這種端到端的主動跟蹤方法能取得優異的表現,並且還具有很好的泛化能力,能夠在目標運動路徑、目標外觀、背景不同以及出現干擾目標時依然穩健地執行主動跟蹤。此外,另一篇主要提出了一種可變度量超鬆弛混合臨近外梯度方法(VMOR-HPE)的新型算法框架,能保證在解決該問題時的全局收斂。

  • End-to-end Active Object Tracking via Reinforcement Learning
  • An Algorithmic Framework of Variable Metric Over-Relaxed Hybrid Proximal Extra-Gradient Method


其次對於分佈式與去中心化,張潼博士做了非常多的研究。例如在圖非凸優化中,他提出了用於高斯圖模型中的最優估計的圖非凸優化,然後又通過一系列自適應的凸程序來近似求解。

  • Composite Functional Gradient Learning of Generative Adversarial Models
  • Graphical Nonconvex Optimization via an Adaptive Convex Relaxation
  • Candidates vs. Noises Estimation for Large Multi-Class Classification Problem
  • Safe Element Screening for Submodular Function Minimization


最後對於他在 ICML 2018 在提交的理論研究和其它期刊與會議的論文,讀者可以參考以下列表:

  • Jiaxiang Wu and Weidong Huang and Junzhou Huang and Tong Zhang. Error Compensated Quantized SGD and its Applications to Large-scale Distributed Optimization, ICML 2018.
  • Kaiqing Zhang and Zhuoran Yang and Han Liu and Tong Zhang and Tamer Basar. Fully Decentralized Multi-Agent Reinforcement Learning with Networked Agents, ICML 2018.
  • Zhaopeng Tu and Yang Liu and Shuming Shi and Tong Zhang. Learning to remember translation history with a continuous cache. , Transactions of the Association for Computational Linguistics, 6:407--420, 2018.
  • Dong Dai and Lei Han and Ting Yang and Tong Zhang. Bayesian Model Averaging with Exponentiated Least Squares Loss , IEEE Trans. Info. Theory, 2018.
  • Xiao-Tong Yuan and Ping Li and Tong Zhang. Gradient Hard Thresholding Pursuit, JMLR , 18:1--43, 2018.
  • Lei Han and Lei Li and Feng Wen and Lei Zhong and Tong Zhang and Xiu-Feng Wan. Graph-Guided Multi-Task Sparse Learning Model: a Method for Identifying Antigenic Variants of Influenza A(H3N2) Virus, Bioinformatics , 2018.


參考鏈接:

http://tongzhang-ml.org (http://tongzhang-ml.org/)

https://www.zhihu.com/question/307359849


分享到:


相關文章: