Spark Streaming的容错

Spark Streaming的容错

Spark Streaming类似于Apache Storm,用于流式数据的处理。根据其官方文档介绍,Spark Streaming有高吞吐量和容错能力强这两个特点。Spark Streaming支持的数据输入源很多,例如:Kafka、Flume、Twitter、ZeroMQ和简单的TCP套接字等等。数据输入后可以用 Spark的高度抽象原语如:map、reduce、join、window等进行运算。而结果也能保存在很多地方,如HDFS,数据库等。另外 Spark Streaming也能和MLlib(机器学习)以及Graphx完美融合。

Spark Streaming 为了实现容错特性,接收到的数据需要在集群的多个Worker 节点上的 executors 之间保存副本(默认2份)。当故障发生时,有两种数据需要恢复:

  • 已接收并且有副本的数据。当只有一台worker 发生故障时,这些数据不会丢失。

  • 已接收但还没有副本的数据。只能从数据源重新获取。

我们需要考虑两种发生故障的情况:

  • Worker 节点故障。如果receiver 运行在发生故障的worker 上,缓存的数据将丢失。

  • Driver 发生故障。很显然 SparkContext 将会丢失,所有executors连同其内存中的数据将会丢失。

了解容错之前,需要知道的数据处理的类型:

  • 最多一次。数据被处理一次或没被处理

  • 至少一次。数据被处理一次或多次

  • 仅有一次。有且仅有一次

可以看出,仅有一次是我们需要达到的目标。

Spark Streaming 数据处理的三个步骤:

  • 接收数据。

  • 处理数据。

  • 输出数据。最终结果被发送到外部系统。如FileSystem,Database等。

Spark Streaming想要保证数据仅有一次被处理,以上三个步骤均需要保证仅有一次被处理。

1、接收数据。 不同的数据来源有不同的保证。

b、数据来源基于Receiver。容错将取决于失败的类型和Receiver的类型。有以下两种Receiver:

  • 可靠的Receiver。Receiver将会在把接收到的数据保存副本后和Source确认已收到数据。如果此类Receiver发生故障,那么Source将接收不到确认信息。Receiver重启后,Source会继续发送未被确认的信息。

  • 不可靠的Receiver。不会发送确认信息:

如果Worker 发生故障,对于(a)数据不会丢失。对于(b)没有副本的数据会丢失。

如果Driver 发生故障,所有之前收到的数据都会丢失,这将影响有状态的操作。

为了解决上述丢失问题,Spark1.2 开始建议使用“write ahead logs” 机制,但是也只能保证“至少处理一次”。

2、处理数据。Spark Streaming 内部RDD保证“仅被处理一次”。

3、输出数据。默认保证“至少处理一次”。因为它取决于最终结果的操作类型和下游的系统(是否支持事务)。

当worker 发生故障时,输出操作可能会被执行多次。想要保证“仅被处理一次”,有以下两种方式:

  • 等价更新。如:输出操作是 saveAs***Files 操作时,因为写文件会直接覆盖原来的文件。

  • 事务更新。使输出的更新操作都具有事务。

a、使用 batch time (存在于foreachRDD中) 和 RDD 的 partition index 组成唯一标识

b、下游系统使用(a)中唯一标识来判断此数据是否被处理过。

dstream.foreachRDD { (rdd, time) => rdd.foreachPartition { partitionIterator => val partitionId = TaskContext.get.partitionId() val uniqueId = generateUniqueId(time.milliseconds, partitionId) // use this uniqueId to transactionally commit the data in partitionIterator }}


分享到:


相關文章: