大數據處理必備的十大工具!

大數據處理必備的十大工具!

大數據的日益增長,給企業管理大量的數據帶來了挑戰的同時也帶來了一些機遇。下面是用於信息化管理的大數據工具列表:

1.ApacheHive


大數據處理必備的十大工具!


Hive是一個建立在hadoop上的開源數據倉庫基礎設施,通過Hive可以很容易的進行數據的ETL,對數據進行結構化處理,並對Hadoop上大數據文件進行查詢和處理等。Hive提供了一種簡單的類似SQL的查詢語言—HiveQL,這為熟悉SQL語言的用戶查詢數據提供了方便。

2JaspersoftBI套件


大數據處理必備的十大工具!


Jaspersoft包是一個通過數據庫列生成報表的開源軟件。行業領導者發現Jaspersoft軟件是一流的,許多企業已經使用它來將SQL錶轉化為pdf,,這使每個人都可以在會議上對其進行審議。另外,JasperReports提供了一個連接配置單元來替代HBase。

3.1010data


大數據處理必備的十大工具!


1010data創立於2000年,是一個總部設在紐約的分析型雲服務,旨在為華爾街的客戶提供服務,甚至包括NYSEEuronext、遊戲和電信的客戶。它在設計上支持可伸縮性的大規模並行處理。它也有它自己的查詢語言,支持SQL函數和廣泛的查詢類型,包括圖和時間序列分析。這個私有云的方法減少了客戶在基礎設施管理和擴展方面的壓力。

4.Actian


大數據處理必備的十大工具!


Actian之前的名字叫做IngresCorp,它擁有超過一萬客戶而且正在擴增。它通過Vectorwise以及對ParAccel實現了擴展。這些發展分別導致了ActianVector和ActianMatrix的創建。它有Apache,Cloudera,Hortonworks以及其他發行版本可供選擇。

5.PentahoBusinessAnalytics


大數據處理必備的十大工具!


從某種意義上說,Pentaho與Jaspersoft相比起來,儘管Pentaho開始於報告生成引擎,但它目前通過簡化新來源中獲取信息的過程來支持大數據處理。Pentaho的工具可以連接到NoSQL數據庫,例如MongoDB和Cassandra。PeterWayner指出,PentahoData(一個更有趣的圖形編程界面工具)有很多內置模塊,你可以把它們拖放到一個圖片上,然後將它們連接起來。

6.KarmasphereStudioandAnalyst


大數據處理必備的十大工具!


KarsmasphereStudio是一組構建在Eclipse上的插件,它是一個更易於創建和運行Hadoop任務的專用IDE。在配置一個Hadoop工作時,Karmasphere工具將引導您完成每個步驟並顯示部分結果。當出現所有數據處於同一個Hadoop集群的情況時,KarmaspehereAnalyst旨在簡化篩選的過程,。

7.Cloudera


大數據處理必備的十大工具!


Cloudera正在努力為開源Hadoop,提供支持,同時將數據處理框架延伸到一個全面的“企業數據中心”範疇,這個數據中心可以作為首選目標和管理企業所有數據的中心點。Hadoop可以作為目標數據倉庫,高效的數據平臺,或現有數據倉庫的ETL來源。企業規模可以用作集成Hadoop與傳統數據倉庫的基礎。Cloudera致力於成為數據管理的“重心”。

8.HPVerticaAnalyticsPlatformVersion7


大數據處理必備的十大工具!


HP提供了用於加載Hadoop軟件發行版所需的參考硬件配置,因為它本身並沒有自己的Hadoop版本。計算機行業領袖將其大數據平臺架構命名為HAVEn(意為Hadoop,Autonomy,Vertica,EnterpriseSecurityand“n”applications)。惠普在Vertica7版本中增加了一個“FlexZone”,允許用戶在定義數據庫方案以及相關分析、報告之前探索大型數據集中的數據。這個版本通過使用HCatalog作為元數據存儲,與Hadoop集成後為用戶提供了一種探索HDFS數據表格視圖的方法。

9.TalendOpenStudio


大數據處理必備的十大工具!


Talend’s工具用於協助進行數據質量、數據集成和數據管理等方面工作。Talend是一個統一的平臺,它通過提供一個統一的,跨企業邊界生命週期管理的環境,使數據管理和應用更簡單便捷。這種設計可以幫助企業構建靈活、高性能的企業架構,在次架構下,集成並啟用百分之百開源服務的分佈式應用程序變為可能。

10.ApacheSpark


大數據處理必備的十大工具!


ApacheSpark是Hadoop開源生態系統的新成員。它提供了一個比Hive更快的查詢引擎,因為它依賴於自己的數據處理框架而不是依靠Hadoop的HDFS服務。同時,它還用於事件流處理、實時查詢和機器學習等方面。


分享到:


相關文章: