華爲雲全球首發GPU共享型AI容器 加速「普惠AI」落地

華為雲全球首發GPU共享型AI容器 加速“普惠AI”落地

繼成功舉行重慶站之後,8月28日,“AI上有信仰的雲——華為雲中國行2018”成都站如期舉行。

成都站現場,華為雲全球首家推出了GPU共享型高性能AI容器,這是繼裸金屬容器、Windows容器等重大特性之後,華為雲在容器領域的又一次技術突破,將極大地推動AI技術的普及,助力“普惠AI”策略加速落地,為廣大用戶提供“用的起、用的好、用的放心”的AI雲平臺。

當下,人工智能已成為各行各業的熱點和趨勢,在實際應用中,企業在不斷追求各類AI計算場景下性能和成本的極致體驗。容器以其獨特的技術優勢,已經成為業界主流AI計算框架(如Tensorflow、Caffe)的核心引擎。華為云為了進一步解決企業在AI計算性能與成本上面臨的問題,為企業量身打造了AI容器產品。

華為雲全球首發GPU共享型AI容器 加速“普惠AI”落地

華為EBG中國區行業雲拓展部部長鬍維琦現場發佈GPU共享型AI容器

華為雲AI容器是全球首款支持共享GPU的高性能容器產品,在業界首家實現了多容器共享GPU資源,大幅降低了AI計算的成本,並在AI計算性能上比通用方案提升了3-5倍以上。

在典型的深度學習模型訓練場景下,需要傳輸和處理海量的數據。通常的方案由於系統吞吐量的限制,往往會讓GPU等待數據,導致計算效率低下,訓練時間較長。

華為雲AI容器運行在高性能的裸金屬服務器上,並通過NUMA架構和100G IB網卡實現高速、低延遲的大數據量傳輸,讓GPU充分發揮大規模並行計算的優勢,從而大幅縮短訓練的時間。經實踐驗證,深度學習訓練對比傳統GPU加速方式能夠進一步提升3~5倍。

業界通常的方案中,單塊GPU只能被單個容器所佔用,使得昂貴的GPU資源無法被充分利用。華為雲通過優化K8S容器調度引擎,能夠為容器中的AI計算任務分配更細粒度的GPU資源,實現多個AI計算任務共享GPU,在部分AI計算如推理類場景中能夠實現更高的資源利用率,從而大幅降低AI計算成本。

華為雲全球首發GPU共享型AI容器 加速“普惠AI”落地

華為雲AI容器已完成多款主流GPU的適配,包括 Nvidia Tesla P4/P100/V100等產品系列,客戶可根據不同應用場景靈活選取,以達到最高的性價比。

華為雲AI容器支持Tensorflow、Caffe等主流深度學習框架,並在華為雲EI的深度學習、推理平臺、人臉/圖像/文字識別等多個服務得到廣泛應用與驗證。目前正式面向華為雲客戶提供該項服務,讓客戶輕鬆獲得強勁、高效的AI計算引擎。

目前AI容器已在華為雲的CCE容器服務中開展公測,您可以訪問以下地址申請試用: https://console.huaweicloud.com/cce2.0/#/app/resource/cluster/list?type=GPU HUAWEI CONNECT

2018作為華為自辦的面向ICT產業的全球性年度旗艦大會,將於2018年10月10日-12日在上海隆重舉行。本屆大會以“+智能,見未來”為主題,旨在搭建一個開放、合作、共享的平臺,與客戶夥伴一起共同探討如何把握新機遇創造智能未來。欲瞭解更多詳情,請參閱:https://www.huawei.com/cn/press-events/events/huaweiconnect2018?ic_medium=hwdc&ic_source=corp_banner_allwayson&source=corp_banner


分享到:


相關文章: