Spark 大数据处理框架简介
Apache Spark 是专为大规模数据处理而设计的快速通用的计算引擎。Spark是UC Berkeley AMP lab (加州大学伯克利分校的AMP实验室)所开源的类Hadoop MapReduce的通用并行框架。Spark,拥有Hadoop MapReduce所具有的优点;但不同于MapReduce的是——Job中间输出结果可以保存在内存中,从而不再需要读写HDFS,因此Spark能更好地适用于数据挖掘与机器学习等需要迭代的MapReduce的算法。
Spark 框架核心组件,以及Spark和Hadoop生态关系
Spark具有如下4个主要特点:
- 运行速度快 - Spark 使用先进的DAG(Directed Acyclic Graph,有向无环图)执行引擎,以支持循环数据流与内存计算,基于内存的执行速度可比Hapdoop MapReduce快上百倍。
- 容易使用 - Spark 支持使用Scale、Java、Python等,并且可以通过Spark Shell进行交互式编程。
- 通用性 - Spark 提供了完整的技术栈,包括SQL查询、流式计算、机器学习等组件。
- 运行模式多样 - Spark 可以运行于独立的集群模式,或者运行于Hadoop中,也可以运行于Amazon EC2等云环境中,并且可以访问 HDFS、Cassandra、HBase、Hive等多种数据源。
Spark 生态系统
Spark的设计遵循“一个软件栈满足不同应用场景”的理念,逐渐形成了一套完整的生态系统,既能够提供内存计算框架,也可以支持SQL即席查询、实时流式计算、机器学习和图计算等。
Spark 专注于数据的处理分析,而数据的存储还是借助于Hadoop HDFS、Amazon S3等来实现。
Spark 可以部署在资源管理器YARN之上。
Spark 生态系统主要包含了:
- Spark Core
- Spark SQL
- Spark Streaming
- MLlib(机器学习)
- GraphX(图计算)
Spark 运行流程
Spark 运行流程如下所示。
(1)当一个Spark 应用被提交时,首先需要为这个应用构建起基本的运行环境,即由任务控制节点(Driver)创建一个SparkContext,由SparkContext 负责和集群管理器(Cluster Manager)的通信以及资源的申请、任务的分配和监控等。
(2)集群管理器为Executor 分配资源,并启动Executor 进程,Executor 运行情况将随着心跳发送给Cluster Manager上。
(3)SparkContext 根据RDD 的依赖关系构建DAG 图,DAG图提交给DAG 调度器(DAG Scheduler)进行解析,将DAG 图分解成多个阶段(Stage,每个阶段都是一个任务集),并且计算出各个阶段之间的依赖关系,然后把一个个任务集提交给底层的任务调度器(Task Scheduler)进行处理。
任务调度器将任务(Task)分发给Executor 执行,同时SparkContext 将应用程序代码发送给 Executor。
(4)任务在Executor 上运行,把执行结果反馈给任务调度器,然后反馈给DAG 调度器,运行完毕后写入数据并释放所有资源。
Spark 部署方式
目前,Spark 支持3中不同类型的部署方式,包括Standalone、Spark on YARN和Spark on Mesos。
- Standalone- Spark独立部署意味着Spark占据HDFS(Hadoop分布式文件系统)顶部的位置,Spark 框架自身也自带了完整的资源调度管理服务,可以独立部署到一个集群中。
- Spark on YARN - Spark 可以运行于YARN之上,和Hadoop 进行统一部署。资源管理和调度依赖YARN,分布式存储依赖HDFS。
- Spark on Mesos - Mesos 是一种资源调度管理框架,可以为运行在它上面的Spark 提供资源调度服务。
在Spark出现之前,为了能同时进行批处理和流出来,通常会采用 Hadoop+Storm架构。
在这种部署架构中,Hadoop和Storm框架部署在资源管理框架YARN/Mesos之上,接受统一的资源管理和调度,并共享底层的数据存储(HDFS、HBase、Cassandra等)。
Hadoop 负责对批量历史数据的实时查询和离线分析,而Storm 则负责对流数据的实时处理。如下图所示。
上面的架构部署布局繁琐。由于Spark同时支持批处理和流程,因此可以从上述的Hadoop+Storm 架构,转向Spark 架构。
其中Sparking Streaming的原理是将流数据分解成一系列短小的批处理作业,每个短小的批处理作业使用面向批处理的Spark Core进行处理,通过这种方式变相实现流计算,而不是真正实时的流计算,因而通常无法实现毫秒级的响应。