400 028 6601

建站动态

根据您的个性需求进行定制 先人一步 抢占小程序红利时代

SparkStreaming怎样使用Kafka保证数据零丢失

Spark Streaming怎样使用Kafka保证数据零丢失,针对这个问题,这篇文章详细介绍了相对应的分析和解答,希望可以帮助更多想解决这个问题的小伙伴找到更简单易行的方法。

创新互联公司是一家专业提供南江企业网站建设,专注与成都网站制作、成都做网站、html5、小程序制作等业务。10年已为南江众多企业、政府机构等服务。创新互联专业网站设计公司优惠进行中。

spark_streaming使用kafka保证数据零丢失

spark streaming从1.2开始提供了数据的零丢失,想享受这个特性,需要满足如下条件:

1.数据输入需要可靠的sources和可靠的receivers

2.应用metadata必须通过应用driver checkpoint

3.WAL(write ahead log)

##可靠的sources和receivers

spark streaming可以通过多种方式作为数据sources(包括kafka),输入数据通过receivers接收,通过replication存储于spark中(为了faultolerance,默认复制到两个spark executors),如果数据复制完成,receivers可以知道(例如kafka中更新offsets到zookeeper中)。这样当receivers在接收数据过程中crash掉,不会有数据丢失,receivers没有复制的数据,当receiver恢复后重新接收。

Spark Streaming怎样使用Kafka保证数据零丢失

##metadata checkpoint

可靠的sources和receivers,可以使数据在receivers失败后恢复,然而在driver失败后恢复是比较复杂的,一种方法是通过checkpoint metadata到HDFS或者S3。metadata包括:

这样当driver失败时,可以通过metadata checkpoint,重构应用程序并知道执行到那个地方。

##数据可能丢失的场景

可靠的sources和receivers,以及metadata checkpoint也不可以保证数据的不丢失,例如:

##WAL

为了避免上面情景的出现,spark streaming 1.2引入了WAL。所有接收的数据通过receivers写入HDFS或者S3中checkpoint目录,这样当driver失败后,executor中数据丢失后,可以通过checkpoint恢复。 Spark Streaming怎样使用Kafka保证数据零丢失

##At-Least-Once 尽管WAL可以保证数据零丢失,但是不能保证exactly-once,例如下面场景:

##WAL的缺点 通过上面描述,WAL有两个缺点:

##Kafka direct API 为了WAL的性能损失和exactly-once,spark streaming1.3中使用Kafka direct API。非常巧妙,Spark driver计算下个batch的offsets,指导executor消费对应的topics和partitions。消费Kafka消息,就像消费文件系统文件一样。 Spark Streaming怎样使用Kafka保证数据零丢失

1.不再需要kafka receivers,executor直接通过Kafka API消费数据

2.WAL不再需要,如果从失败恢复,可以重新消费

3.exactly-once得到了保证,不会再从WAL中重复读取数据

主要说的是spark streaming通过各种方式来保证数据不丢失,并保证exactly-once,每个版本都是spark streaming越来越稳定,越来越向生产环境使用发展。

关于Spark Streaming怎样使用Kafka保证数据零丢失问题的解答就分享到这里了,希望以上内容可以对大家有一定的帮助,如果你还有很多疑惑没有解开,可以关注创新互联行业资讯频道了解更多相关知识。


分享文章:SparkStreaming怎样使用Kafka保证数据零丢失
网址分享:http://mbwzsj.com/article/poccog.html

其他资讯

让你的专属顾问为你服务