Hadoop環境中管理大數據存儲八大技巧

隨著IT互聯網信息技術的飛速發展和進步。目前大數據行業也越來越火爆,從而導致國內大數據人才也極度缺乏,下面介紹一下關於Hadoop環境中管理大數據存儲技巧。

在現如今,隨著IT互聯網信息技術的飛速發展和進步。目前大數據行業也越來越火爆,從而導致國內大數據人才也極度缺乏,下面介紹一下關於Hadoop環境中管理大數據存儲技巧。

1、分佈式存儲

傳統化集中式存儲存在已有一段時間。但大數據並非真的適合集中式存儲架構。Hadoop設計用於將計算更接近數據節點,同時採用了HDFS文件系統的大規模橫向擴展功能。

雖然,通常解決Hadoop管理自身數據低效性的方案是將Hadoop數據存儲在SAN上。但這也造成了它自身性能與規模的瓶頸。現在,如果你把所有的數據都通過集中式SAN處理器進行處理,與Hadoop的分佈式和並行化特性相悖。你要麼針對不同的數據節點管理多個SAN,要麼將所有的數據節點都集中到一個SAN。

但Hadoop是一個分佈式應用,就應該運行在分佈式存儲上,這樣存儲就保留了與Hadoop本身同樣的靈活性,不過它也要求擁抱一個軟件定義存儲方案,並在商用服務器上運行,這相比瓶頸化的Hadoop自然更為高效。

 2、超融合VS分佈式

注意,不要混淆超融合與分佈式。某些超融合方案是分佈式存儲,但通常這個術語意味著你的應用和存儲都保存在同一計算節點上。這是在試圖解決數據本地化的問題,但它會造成太多資源爭用。這個Hadoop應用和存儲平臺會爭用相同的內存和CPU。Hadoop運行在專有應用層,分佈式存儲運行在專有存儲層這樣會更好。之後,利用緩存和分層來解決數據本地化並補償網絡性能損失。

3、避免控制器瓶頸(ControllerChokePoint)

實現目標的一個重要方面就是——避免通過單個點例如一個傳統控制器來處理數據。反之,要確保存儲平臺並行化,性能可以得到顯著提升。

此外,這個方案提供了增量擴展性。為數據湖添加功能跟往裡面扔x86服務器一樣簡單。一個分佈式存儲平臺如有需要將自動添加功能並重新調整數據。

4、刪重和壓縮

掌握大數據的關鍵是刪重和壓縮技術。通常大數據集內會有70%到90%的數據簡化。以PB容量計,能節約數萬美元的磁盤成本。現代平臺提供內聯(對比後期處理)刪重和壓縮,大大降低了存儲數據所需能力。

 5、合併Hadoop發行版

很多大型企業擁有多個Hadoop發行版本。可能是開發者需要或是企業部門已經適應了不同版本。無論如何最終往往要對這些集群的維護與運營。一旦海量數據真正開始影響一家企業時,多個Hadoop發行版存儲就會導致低效性。我們可以通過創建一個單一,可刪重和壓縮的數據湖獲取數據效率

 6、虛擬化Hadoop

虛擬化已經席捲企業級市場。很多地區超過80%的物理服務器現在是虛擬化的。但也仍有很多企業因為性能和數據本地化問題對虛擬化Hadoop避而不談。

7、創建彈性數據湖

創建數據湖並不容易,但大數據存儲可能會有需求。我們有很多種方法來做這件事,但哪一種是正確的?這個正確的架構應該是一個動態,彈性的數據湖,可以以多種格式(架構化,非結構化,半結構化)存儲所有資源的數據。更重要的是,它必須支持應用不在遠程資源上而是在本地數據資源上執行。

不幸的是,傳統架構和應用(也就是非分佈式)並不盡如人意。隨著數據集越來越大,將應用遷移到數據不可避免,而因為延遲太長也無法倒置。

理想的數據湖基礎架構會實現數據單一副本的存儲,而且有應用在單一數據資源上執行,無需遷移數據或製作副本。

8、整合分析

分析並不是一個新功能,它已經在傳統RDBMS環境中存在多年。不同的是基於開源應用的出現,以及數據庫表單和社交媒體,非結構化數據資源(比如,維基百科)的整合能力。關鍵在於將多個數據類型和格式整合成一個標準的能力,有利於更輕鬆和一致地實現可視化與報告製作。合適的工具也對分析/商業智能項目的成功至關重要。

有興趣學習大數據的小夥伴,課私信我回復:大數據 即可領取大數據的學習資料!


分享到:


相關文章: