課程簡介
《數據科學與大數據技術訓練營》參考教育部“數據科學與大數據技術”專業課程設置內容,由一批企業專家和中青年博士、博士後授課,上課方式為在線學習+線下學習(集訓),學生畢業可以推薦就業,同時可考取相關職位資格證書。
“數據科學與大數據技術”本科課程系列(大數據工程師方向)
本期《大數據開發工程師》初級課程,採用網絡教學方式,深入學習大數據主要的三大生態系統NoSQL(MongoDB)、Spark和Hadoop的歷史及目前發展的現狀、以及它們的技術特點,通過貫穿課程的項目進行實戰鍛鍊,掌握平臺部署、開發和調優,把握分佈式計算框架及未來發展方向,助你在大數據時代獲得大數據開發工程師相關職位。
培養目標:
課程結束時,幫助學員實現如下目標:
1、理解MongoDB3的技術核心和管理操作,以此為基礎,進而掌握NoSQLMPP架構數據庫的使用和調優的思想。
a)簡單使用MongoDB
b) 掌握使用ReplSet、Sharding等核心功能
c) 瞭解MEANSatck的web開發框架
i、M = MongoDB/Mongoose.js數據庫,對 node . js來說是一個ODM。
ii、E = Express.js:一個輕量級Web應用程序框架。
iii、A = Angular.js:一個框架用於創建HTML5和JavaScript Web應用程序。
[P=Python是一門面向對象的編程語言,相對於其他語言,更加易學、易讀,非常適合快速開發;合於做網站、ML、科學計算、繪製高質量的2D和3D圖像等應用。]
iv、N = Node.js服務器端JavaScript interpreter。
d) MongoDB的應用。
2、全面掌握Hadoop2的架構原理和使用場景,並通過貫穿課程的項目進行實戰
a)全面掌握Hadoop的安裝和設置。
b) 熟練MapReduce程序開發。
c)深入的掌握HBase的高階應用
d)YARN以及運行在YARN上的計算框架的原理及應用
e)並通過貫穿課程的項目進行實戰鍛鍊,
f)理解掌握主要子項目的基本運維和方法,如Hive、Pig、ZooKeeper、Sqoop等。
3、理解什麼是Spark和Spark在大數據領域的運用,以及理解主要功能。對運作機制有清晰全面的認識。全面掌握並可以獨立規劃及部署和使用Spark的4大功能。
a)Spark SQL數據存取
b) Spark Streaming流式計算
c)Spark MLlib機器學習
d)Spark Graphx圖計算
4、多生態系統的基礎以及架構的目的和方法。
課程對象
為就業者:學職業技能,從根本上解決畢業就等於失業的困頓。
為轉行者:護航上路,大數據職業道路越走越寬廣。
為創業者:提供金剛鑽,不愁瓷器活。
為加薪者:用技術實力說話加薪、跳巢不再遙遙無期。
為提升者:跟上前沿技術,全面提升自我,為公司創造價值。
學員基礎:
瞭解面向對象編程;
瞭解Linux的基本使用;
瞭解關聯數據庫
瞭解一種(Java、Python、Scala、C++。。。)語法
課前準備
本套課程主要是在Linux(Ubuntu 16.04)系統下實現的。為了讓同學們儘快熟練掌握和應用多種三系統技術架構和數據庫,每課將有基於Linux操作系統平臺下練習和項目開發。所以開課之前,每位同學必須準備和完成以下功課:
(手提)電腦一臺至少有以下的配備。
Recommended system requirements:
2 GHz dual core processor or better
8 GB system memory (16)
100 GB of free hard drive space
Either a DVD drive or a USB port for the installer media
Internet access
安裝虛擬機VMWAREplayer。(Virtual Box也行)
安裝Ubuntu 16.04Linux操作系統
設置Linux桌面系統,以及文件和目錄管理。
Java開發環境的搭建和eclipse的安裝。
用戶登陸,用戶註冊。
設置備份系統。
課程表
60+課時,互動直播,三大生態系統全面深入學習, 前甲骨文、安永諮詢顧問,eWorthy Tech高級架構師授課
閱讀原文詳情:http://www.ppvke.com/Blog/archives/46523
閱讀更多 人人數據科學君 的文章