4. Spark Streaming解析

4.1 初始化StreamingContext

import org.apache.spark._
import org.apache.spark.streaming._

val conf = new SparkConf().setAppName(appName).setMaster(master)
val ssc = new StreamingContext(conf, Seconds(1))
// 可以通过 ssc.sparkContext 来访问 SparkContext
// 或者通过已经存在的 SparkContext 来创建 StreamingContext
import org.apache.spark.streaming._

val sc = ...   // existing SparkContext
val ssc = new StreamingContext(sc, Seconds(1))

      初始化完Context之后:

      1) 定义消息输入源来创建DStreams

      2) 定义DStreams的转化操作和输出操作

      3) 通过streamingContext.start()来启动消息采集和处理

      4) 等待程序终止,可以通过streamingContext.awaitTermination()来设置

      5) 通过stramingContext.stop()来手动终止处理程序

      StreamingContext和SparkContext什么关系?

import org.apache.spark.streaming._

val sc = ...   // existing SparkContext
val ssc = new StreamingContext(sc, Seconds(1))

      注意:

        StreamingContext一旦启动,对DStreams的操作就不能修改了

        在同一时间一个JVM中只有一个StreamingContext可以启动

        stop()方法将同时停止SparkContext,可以传入参数stopSparkContext用于只停止StreamingContext

        在Spark1.4版本后,如何优雅的停止SparkStreaming而不丢失数据,通过设置 sparkConf.set("spark.streaming.stopGracefullyOnShutdown","true") 即可。在StreamingContext的start方法中已经注册了Hook方法

4.2 什么是DStreams

      Discretized Stream是Spark Streaming的基础抽象,代表持续性的数据流和经过各种Spark原语操作后的结果数据流。在内部实现上,DStream是一系列连续的RDD来表示。每个RDD含有一段时间间隔内的数据,如下图:

      

      对数据的操作也是按照RDD为单位来进行的

      

      计算过程由Spark engine来完成

      

4.3 DStreams 输入

      Spark Streaming原生支持一些不同的数据源。一些“核心”数据源已经被打包到Spark Streaming的Maven工件中,而其他的一些则可以通过spark- streaming-kafka等附加工件获取。每个接收器都以Spark执行器程序中一个长期运行的任务的形式运行,因此会占据分配给应用的CPU核心。此外,我们还需要有可用的CPU核心来处理数据。这意味着如果要运行多个接收器,就必须至少有和接收器数目相同的核心数,还要加上用来完成计算所需要的核心数。例如,如果我们想要在流计算应用中运行10个接收器,那么至少需要为应用分配11个CPU核心。所以如果在本地模式运行,不要使用local或者local[1]

  4.3.1 基本数据源

    4.3.1.1 文件数据源

      Socket数据流前面的例子已经看到过

      文件数据流:能够读取所有HDFS API兼容的文件系统文件,通过fileStream方法进行读取

streamingContext.fileStream[KeyClass, ValueClass, InputFormatClass](dataDirectory)

      Spark Streaming将会监控dataDirectory目录并不断处理移动进来的文件,记住目前不支持嵌套目录

        1) 文件需要有相同的数据格式

        2) 文件进入dataDirectory的方式需要通过移动或者重命名来实现

        3) 一旦文件移动进目录,则不能再修改,即便修改了也不会读取新数据

      如果文件比较简单,则可以使用streamingContext.textFileStream(dataDirectory)方法来读取文件。文件流不需要接收器,不需要单独分配CPU核

    4.3.1.2 自定义数据源

      通过继承Receiver,并实现onStart、onStop方法来自定义数据源采集

class CustomReceiver(host: String, port: Int)
  extends Receiver[String](StorageLevel.MEMORY_AND_DISK_2) with Logging {

  def onStart() {
    // Start the thread that receives data over a connection
    new Thread("Socket Receiver") {
    override def run() { receive() }
    }.start()
  }

  def onStop() {
    // There is nothing much to do as the thread calling receive()
    // is designed to stop by itself if isStopped() returns false
  }

  /** Create a socket connection and receive data until receiver is stopped */
  private def receive() {
    var socket: Socket = null
    var userInput: String = null
    try {
      // Connect to host:port
      socket = new Socket(host, port)

    // Until stopped or connection broken continue reading
    val reader = new BufferedReader(
      new InputStreamReader(socket.getInputStream(), StandardCharsets.UTF_8))
    userInput = reader.readLine()
    while(!isStopped && userInput != null) {
      store(userInput)
      userInput = reader.readLine()
    }
    reader.close()
    socket.close()

    // Restart in an attempt to connect again when server is active again
    restart("Trying to connect again")
    } catch {
      case e: java.net.ConnectException =>
        // restart if could not connect to server
        restart("Error connecting to " + host + ":" + port, e)
      case t: Throwable =>
        // restart if there is any other error
    restart("Error receiving data", t)
    }
  }
}

      可以通过 streamingContext.receiverStream(<instance of custom receiver>)来使用自定义的数据采集源

// Assuming ssc is the StreamingContext
val customReceiverStream = ssc.receiverStream(new CustomReceiver(host, port))
val words = lines.flatMap(_.split(" "))
...

    4.3.1.3 RDD队列

      测试过程中,可以通过使用streamingContext.queueStream(queueOfRDDs)来创建DStream,每一个推送到这个队列中的RDD,都会作为一个 DStream处理

import org.apache.spark.SparkConf
import org.apache.spark.rdd.RDD
import org.apache.spark.streaming.{Seconds, StreamingContext}
import scala.collection.mutable

object QueueRdd {
  def main(args: Array[String]) {

    val conf = new SparkConf().setMaster("local[2]").setAppName("QueueRdd")
    val ssc = new StreamingContext(conf, Seconds(1))

    // Create the queue through which RDDs can be pushed to
    // a QueueInputDStream
    //创建 RDD 队列
    val rddQueue = new mutable.SynchronizedQueue[RDD[Int]]()

    // Create the QueueInputDStream and use it do some processing
    // 创建 QueueInputDStream
    val inputStream = ssc.queueStream(rddQueue)

    //处理队列中的 RDD 数据
    val mappedStream = inputStream.map(x => (x % 10, 1))
    val reducedStream = mappedStream.reduceByKey(_ + _)

    //打印结果
    reducedStream.print()

    //启动计算
    ssc.start()

    // Create and push some RDDs into
    for (i <- 1 to 30) {
      rddQueue += ssc.sparkContext.makeRDD(1 to 300, 10)
      Thread.sleep(2000)

      //通过程序停止 StreamingContext 的运行
      //ssc.stop()
    }
  }
}

  4.3.2 高级数据源

      除核心数据源外,还可以用附加数据源接收器来从一些知名数据获取系统中接收的数据,这些接收器都作为Spark Streaming的组件进行独立打包了。 它们仍然是Spark的一部分,不过你需要在构建文件中添加额外的包才能使用它们。现有的接收器包括Twitter、Apache Kafka、Amazon Kinesis、Apache Flume,以及ZeroMQ。可以通过添加与Spark版本匹配的Maven工件spark-streaming-[projectname]_2.10来引入这些附加接收器

    4.3.2.1 Apache Kafka

      在工程中需要引入Maven工件spark-streaming-kafka_2.10来使用它。包内提供的KafkaUtils对象可以在StreamingContext和JavaStreamingContext 中以你的Kafka消息创建出DStream。由于KafkaUtils可以订阅多个主题,因此它创建出的DStream由成对的主题和消息组成。要创建出一个流数据,需要使用 StreamingContext实例、一个由逗号隔开的ZooKeeper主机列表字符串、消费者组的名字(唯一名字),以及一个从主题到针对这个主题的接收器线程数的映射表来调用createStream()方法

import org.apache.spark.streaming.kafka._?...?// 创建一个从主题到接收器线程数的映射表?
val topics = List(("pandas", 1), ("logs", 1)).toMap?
val topicLines = KafkaUtils.createStream(ssc, zkQuorum, group, topics)
topicLines.map(_._2)

      演示SparkStreaming如何从Kafka读取消息,如果通过连接池方法把消息处理完成后再写回Kafka

      

      kafka Connection Pool程序:

mport java.util.Properties
import org.apache.commons.pool2.impl.DefaultPooledObject
import org.apache.commons.pool2.{BasePooledObjectFactory, PooledObject}
import org.apache.kafka.clients.producer.{KafkaProducer, ProducerRecord}

case class KafkaProducerProxy(brokerList: String,
                              producerConfig: Properties = new Properties,
                              defaultTopic: Option[String] = None,
                              producer: Option[KafkaProducer[String, String]] = None)
{

  type Key = String
  type Val = String

  require(brokerList == null || !brokerList.isEmpty, "Must set broker list")

  private val p = producer getOrElse {

    var props:Properties= new Properties();
    props.put("bootstrap.servers", brokerList);
    props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
    props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");

    new KafkaProducer[String,String](props)
  }

  private def toMessage(value: Val, key: Option[Key] = None, topic: Option[String] = None): ProducerRecord[Key, Val] = {
    val t = topic.getOrElse(defaultTopic.getOrElse(throw new IllegalArgumentException("Must provide topic or default topic")))
    require(!t.isEmpty, "Topic must not be empty")
    key match {
      case Some(k) => new ProducerRecord(t, k, value)
      case _ => new ProducerRecord(t, value) }
  }

  def send(key: Key, value: Val, topic: Option[String] = None) {
    p.send(toMessage(value, Option(key), topic))
  }

  def send(value: Val, topic: Option[String]) {
    send(null, value, topic)
  }

  def send(value: Val, topic: String) {
    send(null, value, Option(topic))
  }

  def send(value: Val) {
    send(null, value, None)
  }

  def shutdown(): Unit = p.close()

}
abstract class KafkaProducerFactory(brokerList: String, config: Properties, topic: Option[String] = None) extends Serializable {
  def newInstance(): KafkaProducerProxy
}
class BaseKafkaProducerFactory(brokerList: String,
                               config: Properties = new Properties,
                               defaultTopic: Option[String] = None)
  extends KafkaProducerFactory(brokerList, config, defaultTopic) {

  override def newInstance() = new KafkaProducerProxy(brokerList, config, defaultTopic) }

class PooledKafkaProducerAppFactory(val factory: KafkaProducerFactory) extends BasePooledObjectFactory[KafkaProducerProxy] with Serializable {

  override def create(): KafkaProducerProxy = factory.newInstance()

  override def wrap(obj: KafkaProducerProxy): PooledObject[KafkaProducerProxy] = new DefaultPooledObject(obj)

  override def destroyObject(p: PooledObject[KafkaProducerProxy]): Unit = {
    p.getObject.shutdown()
    super.destroyObject(p)
  }
}

      KafkaStreaming main:

import org.apache.commons.pool2.impl.{GenericObjectPool, GenericObjectPoolConfig}
import org.apache.kafka.clients.consumer.ConsumerRecord
import org.apache.kafka.common.serialization.StringDeserializer
import org.apache.spark.SparkConf
import org.apache.spark.api.java.function.VoidFunction
import org.apache.spark.rdd.RDD
import org.apache.spark.streaming.kafka010.{ConsumerStrategies, KafkaUtils, LocationStrategies}
import org.apache.spark.streaming.{Seconds, StreamingContext}

object createKafkaProducerPool{
  def apply(brokerList: String, topic: String):

  GenericObjectPool[KafkaProducerProxy] = {
    val producerFactory = new BaseKafkaProducerFactory(brokerList, defaultTopic = Option(topic))
    val pooledProducerFactory = new PooledKafkaProducerAppFactory(producerFactory)
    val poolConfig = {
      val c = new GenericObjectPoolConfig
      val maxNumProducers = 10
      c.setMaxTotal(maxNumProducers)
      c.setMaxIdle(maxNumProducers)
      c
    }
    new GenericObjectPool[KafkaProducerProxy](pooledProducerFactory, poolConfig)
  }
}

object KafkaStreaming{

  def main(args: Array[String]) {

    val conf = new SparkConf().setMaster("local[4]").setAppName("NetworkWordCount")
    val ssc = new StreamingContext(conf, Seconds(1))

    //创建 topic
    val brobrokers = "172.16.148.150:9092,172.16.148.151:9092,172.16.148.152:9092"
    val sourcetopic="source";
    val targettopic="target";

    //创建消费者组
    var group="con-consumer-group"
    //消费者配置
    val kafkaParam = Map(
      "bootstrap.servers" -> brobrokers,//用于初始化链接到集群的地址
      "key.deserializer" -> classOf[StringDeserializer],
      "value.deserializer" -> classOf[StringDeserializer],
      //用于标识这个消费者属于哪个消费团体
      "group.id" -> group, /
      //如果没有初始化偏移量或者当前的偏移量不存在任何服务器上,可以使用这个配置属性
      //可以使用这个配置,latest 自动重置偏移量为最新的偏移量
      "auto.offset.reset" -> "latest",
      //如果是 true,则这个消费者的偏移量会在后台自动提交
      "enable.auto.commit" -> (false: java.lang.Boolean)
    );

    //ssc.sparkContext.broadcast(pool)

    //创建 DStream,返回接收到的输入数据
    var stream=KafkaUtils.createDirectStream[String,String](ssc, LocationStrategies.PreferConsistent,ConsumerStrategies.Subscribe[String,String ](Array(sourcetopic),kafkaParam))

    //每一个 stream 都是一个 ConsumerRecord
    stream.map(s =>("id:" + s.key(),">>>>:"+s.value())).foreachRDD(rdd => {
      rdd.foreachPartition(partitionOfRecords => {
        // Get a producer from the shared pool
        val pool = createKafkaProducerPool(brobrokers, targettopic)
        val p = pool.borrowObject()

        partitionOfRecords.foreach {message => System.out.println(message._2);
          p.send(message._2,Option(targettopic))}

        // Returning the producer to the pool also shuts it down
        pool.returnObject(p)
      })
    })

    ssc.start()
    ssc.awaitTermination()

  }
}

    4.3.2.2 Spark对Kafka两种连接方式的对比

      Spark对于Kafka的连接主要有两种方式,一种是DirectKafkaInputDStream,另外一种是KafkaInputDStream。DirectKafkaInputDStream只在driver端接收数据,所以继承了InputDStream,是没有receivers的

      主要通过KafkaUtils#createDirectStream以及KafkaUtils#createStream这两个API来创建,除了要传入的参数不同外,接收kafka数据的节点、拉取数据的时机也完全不同

      KafkaUtils#createStream【Receiver-based】

      这种方法使用一个Receiver来接收数据。在该Receiver的实现中使用了Kafka high-level consumer API。Receiver从kafka接收的数据将被存储到Spark executor中,随后启动的job将处理这些数据

      在默认配置下,该方法失败后会丢失数据(保存在executor内存里的数据在application失败后就没了),若要保证数据不丢失,需要启用WAL(即预写日志至HDFS、S3等),这样再失败后可以从日志文件中恢复数据

      在该函数中,会新建一个KafkaInputDStream对象,KafkaInputDStream继承于ReceiverInputDStream。KafkaInputDStream实现了getReceiver方法,返回接收器的实例:

def getReceiver(): Receiver[(K, V)] = {
    if (!useReliableReceiver) {
    //< 不启用 WAL
    new KafkaReceiver[K, V, U, T](kafkaParams, topics, storageLevel)
  } else {
    //< 启用 WAL
    new ReliableKafkaReceiver[K, V, U, T](kafkaParams, topics,
    storageLevel)
  }
}

      根据是否启用 WAL,receiver分为KafkaReceiver和ReliableKafkaReceiver

      下图描述了KafkaReceiver接收数据的具体流程:

      

      需要注意的点:

        Kafka Topic的partitions与RDD的partitions没有直接关系,不能一一对应。如果增加topic的partition个数的话仅仅会增加单个Receiver接收数据的线程数。事实上,使用这种方法只会在一个executor上启用一个Receiver,该Receiver包含一个线程池,线程池的线程个数与所有topics的partitions个数总和一致,每条线程接收一个topic的一个partition的数据。而并不会增加处理数据时的并行度。

        对于一个 topic,可以使用多个groupid相同的input DStream来使用多个Receivers来增加并行度,然后union他们;对于多个topics,除了可以用上个办法增加并行度外,还可以对不同的topic使用不同的input DStream然后union他们来增加并行度

        如果启用了WAL,为能将接收到的数据将以log的方式在指定的存储系统备份一份,需要指定输入数据的存储等级为StorageLevel.MEMORY_AND_DISK_SER或StorageLevel.MEMORY_AND_DISK_SER_2

      KafkaUtils#createDirectStream【WithOut Receiver】

      自Spark-1.3.0起,提供了不需要Receiver的方法。替代了使用receivers来接收数据,该方法定期查询每个topic+partition的lastest offset,并据此决定每个batch要接收的offsets范围

      KafkaUtils#createDirectStream调用中,会新建DirectKafkaInputDStream,DirectKafkaInputDStream#compute(validTime: Time)会从kafka拉取数据并生成RDD,流程如下:

      

      如上图所示,该函数主要做了以下三个事情:

        1. 确定要接收的partitions的offsetRange,以作为第2步创建的RDD的数据来源

        2. 创建RDD并执行count操作,使RDD真实具有数据

        3. 以streamId、数据条数,offsetRanges信息初始化inputInfo并添加到JobScheduler中

      进一步看KafkaRDD的getPartitions实现:

override def getPartitions: Array[Partition] = {
  offsetRanges.zipWithIndex.map {case (o, i) =>
    val (host, port) = leaders(TopicAndPartition(o.topic, o.partition))
    new KafkaRDDPartition(i, o.topic, o.partition, o.fromOffset, o.untilOffset, host, port)
  }.toArray
}

      从上面的代码可以很明显看到,KafkaRDD的partition数据与Kafka topic的某个partition的o.fromOffset至o.untilOffset数据是相对应的,也就是说KafkaRDD的partition与Kafka partition是一一对应的

      该方式相比使用Receiver的方式有以下好处:

        简化并行:不再需要创建多个kafka input DStream然后再union这些input DStream。使用directStream,Spark Streaming会创建与Kafka partitions相同数量的paritions的RDD,RDD的partition与Kafka的partition一一对应,这样更易于理解及调优

        高效:在方式一中要保证数据零丢失需要启用WAL(预写日志),这会占用更多空间。而在方式二中,可以直接从Kafka指定的topic的指定offsets处恢复数据,不需要使用WAL

        恰好一次语义保证:基于Receiver方式使用了Kafka的high level API来在Zookeeper中存储已消费的offsets。这在某些情况下会导致一些数据被消费两次,比如streaming app在处理某个batch内已接受到的数据的过程中挂掉,但是数据已经处理了一部分,但这种情况下无法将已处理数据的offsets更新到 Zookeeper中,下次重启时,这批数据将再次被消费且处理。基于direct的方式,使用kafka的简单api,Spark Streaming自己就负责追踪消费的offset,并保存在 checkpoint中。Spark自己一定是同步的,因此可以保证数据是消费一次且仅消费一次。这种方式中,只要将output操作和保存offsets操作封装成一个原子操作就能避免失败后的重复消费和处理,从而达到恰好一次的语义(Exactly-once)

      通过以上分析,我们可以对这两种方式的区别做一个总结:

        1. createStream会使用Receiver;而createDirectStream不会

        2. createStream使用的Receiver会分发到某个executor上去启动并接受数据;而createDirectStream直接在driver上接收数据

        3. createStream 使用 Receiver 源源不断的接收数据并把数据交给ReceiverSupervisor 处理最终存储为 blocks 作为 RDD 的输入,从 kafka拉取数据与计算消费数据相互独立;而 createDirectStream 会在每个 batch拉取数据并就地消费,到下个 batch 再次拉取消费,周而复始,从 kafka拉取数据与计算消费数据是连续的,没有独立开

        4. createStream中创建的KafkaInputDStream每个batch所对应的RDD的partition不与Kafka partition一一对应;而createDirectStream中创建的 DirectKafkaInputDStream每个batch所对应的RDD的partition与Kafka partition一一对应

    4.3.2.3 Flume-ng

      Spark提供两个不同的接收器来使用Apache Flume。 两个接收器简介如下

        推式接收器该接收器以Avro数据池的方式工作,由Flume向其中推数据

        拉式接收器该接收器可以从自定义的中间数据池中拉数据,而其他进程可以使用Flume把数据推进该中间数据池

      两种方式都需要重新配置Flume,并在某个节点配置的端口上运行接收器(不是已有的 Spark 或者 Flume 使用的端口)。要使用其中任何一种方法,都需要在工程中引入Maven工件spark-streaming-flume_2.10

      

      推式接收器的方法设置起来很容易,但是它不使用事务来接收数据。在这种方式中,接收器以Avro数据池的方式工作,我们需要配置Flume来把数据发到 Avro数据池。我们提供的FlumeUtils对象会把接收器配置在一个特定的工作节点的主机名及端口号上。这些设置必须和Flume配置相匹配

      虽然这种方式很简洁,但缺点是没有事务支持。这会增加运行接收器的工作节点发生错误时丢失少量数据的几率。不仅如此,如果运行接收器的工作节点发生故障,系统会尝试从另一个位置启动接收器,这时需要重新配置Flume才能将数据发给新的工作节点。这样配置会比较麻烦

      较新的方式是拉式接收器(在 Spark 1.1 中引入),它设置了一个专用的Flume数据池供Spark Streaming读取,并让接收器主动从数据池中拉取数据。这种方式的优点在于弹性较好,Spark Streaming通过事务从数据池中读取并复制数据。在收到事务完成的通知前,这些数据还保留在数据池中

      我们需要先把自定义数据池配置为Flume的第三方插件。安装插件的最新方法请参考Flume文档的相关部分(https://flume.apache.org/FlumeUserGuide.html#installing-third-party-plugins)。 由于插件是用Scala写的,因此需要把插件本身以及Scala库都添加到Flume插件中

<dependency>
    <groupId>org.apache.spark</groupId>
    <artifactId>spark-streaming-flume-sink_2.11</artifactId>
    <version>1.2.0</version>
</dependency>
<dependency>
    <groupId>org.scala-lang</groupId>
    <artifactId>scala-library</artifactId>
    <version>2.11.11</version>
</dependency>

      当把自定义Flume数据池添加到一个节点上之后,就需要配置Flume来把数据推送到这个数据池中

a1.sinks = spark
a1.sinks.spark.type = org.apache.spark.streaming.flume.sink.SparkSink
a1.sinks.spark.hostname = receiver-hostname
a1.sinks.spark.port = port-used-for-sync-not-spark-port
a1.sinks.spark.channel = memoryChannel

      等到数据已经在数据池中缓存起来,就可以调用FlumeUtils来读取数据了

val events = FlumeUtils.createPollingStream(ssc,receiverHostname,receiverPort)

4.4 DStreams转换

      DStream上的原语与RDD的类似,分为Transformations(转换)和Output Operations(输出)两种,此外转换操作中还有一些比较特殊的原语,如:updateStateByKey()、transform()以及各种Window相关的原语

      DStream的转化操作可以分为无状态(stateless)和有状态(stateful)两种

      在无状态转化操作中,每个批次的处理不依赖于之前批次的数据。常见的RDD转化操作,例如 map()、filter()、reduceByKey() 等,都是无状态转化操作

      相对地,有状态转化操作需要使用之前批次的数据或者是中间结果来计算当前批次的数据。有状态转化操作包括基于滑动窗口的转化操作和追踪状态变化的转化操作

  4.4.1 无状态转化操作

      无状态转化操作就是把简单的RDD转化操作应用到每个批次上,也就是转化DStream中的每一个RDD。部分无状态转化操作列在了下表中。注意,针对键值对的DStream转化操作(比如reduceByKey())要添加import StreamingContext._才能在Scala中使用


Transformation


Meaning


map(func)


将源DStream中的每个元素通过一个函数func从而得到新的DStreams


flatMap(func)


和map类似,但是每个输入的项可以被映射为0或更多项


filter(func)


选择源DStream中函数func判为true的记录作为新DStreams


repartition(numPartitions)


通过创建更多或者更少的partition来改变此DStream的并行级别


union(otherStream)


联合源DStreams和其他DStreams来得到新DStream


count()


统计源DStreams中每个RDD所含元素的个数得到单元素RDD的新DStreams


reduce(func)


通过函数func(两个参数一个输出)来整合源DStreams中每个RDD元素得到单元素RDD的DStreams。这个函数需要关联从而可以被并行计算


countByValue()


对于DStreams中元素类型为K调用此函数,得到包含(K,Long)对的新DStream,其中Long值表明相应的K在源DStream中每个RDD出现的频率


reduceByKey(func, [numTasks])


对(K,V)对的DStream调用此函数,返回同样(K,V)对的新DStream,但是新DStream中的对应V为使用reduce函数整合而来。Note:默认情况下,这个操作使用Spark默认数量的并行任务(本地模式为2,集群模式中的数量取决于配置参数spark.default.parallelism)。也可以传入可选的参数numTaska来设置不同数量的任务


join(otherStream, [numTasks])


两DStream分别为(K,V)和(K,W)对,返回(K,(V,W))对的新DStream


cogroup(otherStream, [numTasks])


两DStream分别为(K,V)和(K,W)对,返回(K,(Seq[V],Seq[W])对新DStreams


transform(func)


将RDD到RDD映射的函数func作用于源 DStream中每个RDD上得到新DStream。 这个可用于在DStream的RDD上做任意操作


updateStateByKey(func)


得到”状态”DStream,其中每个key状态的更新是通过将给定函数用于此key的上一个状态和新值而得到。这个可用于保存每个key值的任意状态数据

      DStream无状态转化操作的例子

      

      尽管这些函数看起来像作用在整个流上一样,但事实上每个DStream在内部是由许多RDD(批次)组成,且无状态转化操作是分别应用到每个RDD上的。例如,reduceByKey()会归约每个时间区间中的数据,但不会归约不同区间之间的数据

      举个例子,在之前的wordcount程序中,我们只会统计1秒内接收到的数据的单词个数,而不会累加

      无状态转化操作也能在多个DStream间整合数据,不过也是在各个时间区间内。例如,键值对DStream拥有和RDD一样的与连接相关的转化操作,也就是cogroup()、join()、leftOuterJoin()等。我们可以在DStream上使用这些操作,这样就对每个批次分别执行了对应的RDD操作

      我们还可以像在常规的Spark中一样使用DStream的union()操作将它和另一个DStream的内容合并起来,也可以使用StreamingContext.union()来合并多个流

  4.4.2  有状态转化操作

      特殊的Transformations

    4.4.2.1 追踪状态变化UpdateStateByKey

      UpdateStateByKey原语用于记录历史记录,有时,我们需要在DStream中跨批次维护状态(例如流计算中累加 wordcount)。针对这种情况,updateStateByKey()为我们提供了对一个状态变量的访问,用于键值对形式的DStream。给定一个由(键,事件)对构成的DStream,并传递一个指定如何根据新的事件更新每个键对应状态的函数,它可以构建出一个新的DStream,其内部数据为(键,状态)对

      updateStateByKey()的结果会是一个新的DStream,其内部的RDD序列是由每个时间区间对应的(键,状态)对组成的

      updateStateByKey操作使得我们可以在用新信息进行更新时保持任意的状态。为使用这个功能,需要做下面两步:

        1. 定义状态,状态可以是一个任意的数据类型

        2. 定义状态更新函数,用此函数阐明如何使用之前的状态和来自输入流的新值对状态进行更新

      使用updateStateByKey需要对检查点目录进行配置,会使用检查点来保存状态

      更新版的 wordcount:

import org.apache.spark.SparkConf
import org.apache.spark.streaming.{Seconds, StreamingContext}

object WorldCount {

  def main(args: Array[String]) {

    // 定义更新状态方法,参数 values 为当前批次单词频度,state 为以往批次单词频度
    val updateFunc = (values: Seq[Int], state: Option[Int]) => {
      val currentCount = values.foldLeft(0)(_ + _)
      val previousCount = state.getOrElse(0)
      Some(currentCount + previousCount)
    }

    val conf = new SparkConf().setMaster("local[2]").setAppName("NetworkWordCount")
    val ssc = new StreamingContext(conf, Seconds(3))
    ssc.checkpoint(".")

    // Create a DStream that will connect to hostname:port, like localhost:9999
    val lines = ssc.socketTextStream("master01", 9999)

    // Split each line into words
    val words = lines.flatMap(_.split(" "))

    //import org.apache.spark.streaming.StreamingContext._ // not necessary since Spark 1.3
    // Count each word in each batch
    val pairs = words.map(word => (word, 1))

    // 使用 updateStateByKey 来更新状态,统计从运行开始以来单词总的次数
    val stateDstream = pairs.updateStateByKey[Int](updateFunc)
    stateDstream.print()

    //val wordCounts = pairs.reduceByKey(_ + _)
    // Print the first ten elements of each RDD generated in this DStream to the console
    //wordCounts.print()
    ssc.start() // Start the computation
    ssc.awaitTermination() // Wait for the computation to terminate
    //ssc.stop()
  }
}

    4.4.2.2 window Operations

      Window Operations有点类似于Storm中的State,可以设置窗口的大小和滑动窗口的间隔来动态的获取当前Steaming的允许状态

      基于窗口的操作会在一个比StreamingContext的批次间隔更长的时间范围内,通过整合多个批次的结果,计算出整个窗口的结果

      

      所有基于窗口的操作都需要两个参数,分别为窗口时长以及滑动步长,两 者都必须是StreamContext的批次间隔的整数倍。窗口时长控制每次计算最近的多少个批次的数据,其实就是最近的windowDuration/batchInterval个批次。 如果有一个以10秒为批次间隔的源DStream,要创建一个最近30秒的时间窗口(即最近3个批次),就应当把windowDuration设为30秒。而滑动步长的默认值与批次间隔相等,用来控制对新的DStream进行计算的间隔。如果源DStream批次间隔为10秒,并且我们只希望每两个批次计算一次窗口结果,就应该把滑动步长设置为20秒

      假设,你想拓展前例从而每隔十秒对持续30秒的数据生成word count。为做到这个,我们需要在持续30秒数据的(word,1)对DStream上应用reduceByKey。使用操作reduceByKeyAndWindow

# reduce last 30 seconds of data, every 10 second

windowedWordCounts = pairs.reduceByKeyAndWindow(lambda x, y: x + y, lambda x, y: x -y, 30, 20)

      


Transformation


Meaning


window(windowLength, slideInterval)


基于对源DStream窗化的批次进行计算返回一个新的DStream


countByWindow(windowLength, slideInterval)


返回一个滑动窗口计数流中的元素


reduceByWindow(func, windowLength, slideInterval)


通过使用自定义函数整合滑动区间流元素来创建一个新的单元素流


reduceByKeyAndWindow(func, windowLength, slideI nterval, [numTasks])


当在一个(K,V)对的DStream上调用此函数,会返回一个新(K,V)对的DStream,此处通过对滑动窗口中批次数据使用reduce 函数来整合每个key的value值。Note:默认情况下,这个操作使用Spark的默认数量并行任务(本地是2),在集群模式中依据配置属性(spark.default.parallelism)来做grouping。可以通过设置可选参数numTasks来设置不同数量的tasks


reduceByKeyAndWindow(func, invFunc, windowLeng th, slideInterval, [numTasks])


这个函数是上述函数的更高效版本,每个窗口的reduce值都是通过用前一个窗的reduce值来递增计算。通过reduce进入到滑动窗口数据并”反向reduce”离开窗口的旧数据来实现这个操作。一个例子是随着窗口滑动对keys的“加”“减”计数。通过前边介绍可以想到,这个函数只适用于”可逆的 reduce函数”,也就是这些reduce函数有相应的”反 reduce”函数(以参数invFunc形式传入)。如前述函数,reduce 任务的数量通过可选参数来配置。注意:为了使用这个操作,检查点必须可用


countByValueAndWindow(windowLength,slideInterv al, [numTasks])


对(K,V)对的DStream调用,返回(K,Long)对的新DStream,其中每个key的值是其在滑动窗口中频率。如上,可配置 reduce任务数量

      reduceByWindow()和reduceByKeyAndWindow()让我们可以对每个窗口更高效地进行归约操作。它们接收一个归约函数,在整个窗口上执行,比如+。 除此以外,它们还有一种特殊形式,通过只考虑新进入窗口的数据和离开窗口的数据,让Spark增量计算归约结果。这种特殊形式需要提供归约函数的一个逆函数,比如+对应的逆函数为-。对于较大的窗口,提供逆函数可以大大提高执行效率

      

val ipDStream = accessLogsDStream.map(logEntry => (logEntry.getIpAddress(), 1))
val ipCountDStream = ipDStream.reduceByKeyAndWindow(
  {(x, y) => x + y},
  {(x, y) => x - y},
  Seconds(30),
  Seconds(10))
  // 加上新进入窗口的批次中的元素 // 移除离开窗口的老批次中的元素 // 窗口时长?// 滑动步长

      countByWindow()和countByValueAndWindow()作为对数据进行计数操作的简写。countByWindow()返回一个表示每个窗口中元素个数的DStream,而countByValueAndWindow()返回的DStream则包含窗口中每个值的个数

val ipDStream = accessLogsDStream.map{entry => entry.getIpAddress()}  ?
val ipAddressRequestCount = ipDStream.countByValueAndWindow(Seconds(30), Seconds(10))
val requestCount = accessLogsDStream.countByWindow(Seconds(30), Seconds(10))

      WordCount 第三版:3 秒一个批次,窗口 12 秒,滑步 6 秒

import org.apache.spark.SparkConf
import org.apache.spark.streaming.{Seconds, StreamingContext}

object WorldCount {
  def main(args: Array[String]) {

    // 定义更新状态方法,参数 values 为当前批次单词频度,state 为以往批次单词频度
    val updateFunc = (values: Seq[Int], state: Option[Int]) => {
      val currentCount = values.foldLeft(0)(_ + _)
      val previousCount = state.getOrElse(0)
      Some(currentCount + previousCount)
  }
  val conf = new SparkConf().setMaster("local[2]").setAppName("NetworkWordCount")
    val ssc = new StreamingContext(conf, Seconds(3))
    ssc.checkpoint(".")

  // Create a DStream that will connect to hostname:port, like localhost:9999
  val lines = ssc.socketTextStream("master01", 9999)

  // Split each line into words
  val words = lines.flatMap(_.split(" "))

  //import org.apache.spark.streaming.StreamingContext._ // not necessary since Spark 1.3
  // Count each word in each batch
  val pairs = words.map(word => (word, 1))

  val wordCounts = pairs.reduceByKeyAndWindow((a:Int,b:Int) => (a +
    b),Seconds(12), Seconds(6))

  // Print the first ten elements of each RDD generated in this DStream to the console
  wordCounts.print()

  ssc.start() // Start the computation
  ssc.awaitTermination() // Wait for the computation to terminate
  //ssc.stop()
  }
}

  4.4.3 重要操作

    4.4.3.1 Transform Operation

      Transform原语允许DStream上执行任意的RDD-to-RDD函数。即使这些函数并没有在DStream的API中暴露出来,通过该函数可以方便的扩展Spark API

      该函数每一批次调度一次

      比如下面的例子,在进行单词统计的时候,想要过滤掉spam的信息,其实也就是对DStream中的RDD应用转换

val spamInfoRDD = ssc.sparkContext.newAPIHadoopRDD(...) // RDD containing spam information

val cleanedDStream = wordCounts.transform { rdd =>
  rdd.join(spamInfoRDD).filter(...) // join data stream with spam information to do data cleaning
  ...
}

    4.4.3.2 Join操作

      连接操作(leftOuterJoin, rightOuterJoin, fullOuterJoin也可以),可以连接Stream-Stream,windows-stream to windows-stream、stream-dataset

      Stream-Stream Joins

val stream1: DStream[String, String] = ...
val stream2: DStream[String, String] = ...
val joinedStream = stream1.join(stream2)

val windowedStream1 = stream1.window(Seconds(20))
val windowedStream2 = stream2.window(Minutes(1))
val joinedStream = windowedStream1.join(windowedStream2)

      Stream-dataset joins

val dataset: RDD[String, String] = ...
val windowedStream = stream.window(Seconds(20))...
val joinedStream = windowedStream.transform { rdd => rdd.join(dataset) }

4.5 DStreams输出

      输出操作指定了对流数据经转化操作得到的数据所要执行的操作(例如把结果推入外部数据库或输出到屏幕上)。与RDD中的惰性求值类似,如果一个DStream及其派生出的DStream都没有被执行输出操作,那么这些DStream就都不会被求值。如果 StreamingContext中没有设定输出操作,整个context就都不会启动

Output Operation

Meaning

print()

在运行流程序的驱动结点上打印DStream 中每一批次数据的最开始 10个元素。这用于开发和调试。在 Python API 中,同样的操作叫 pprint()

saveAsTextFiles(prefix, [suffix])

以 text 文件形式存储这个DStream 的内容。每一批次的存储文

件名基于参数中的 prefix 和 suffix。”prefix-Time_IN_MS[.suffix]”.

saveAsObjectFiles(prefix, [suffix])

以 Java 对象序列化的方式将Stream 中的数据保存为SequenceFiles . 每一批次的存储文件 名 基 于 参 数 中 的 为 "prefix- TIME_IN_MS[.suffix]". Python 中 目 前不可用。

saveAsHadoopFiles(prefix, [suffix])

将 Stream 中的数据保存为Hadoop files. 每一批次的存储文件名 基 于 参 数 中 的 为 "prefix- TIME_IN_MS[.suffix]".
Python API Python 中目前不可用

foreachRDD(func)

这是最通用的输出操作,即将函 数 func 用于产生于 stream 的每一个RDD。其中参数传入的函数 func 应该 实现将每一个 RDD 中数据推送到外 部系统,如将 RDD 存入文件或者通过 网络将其写入数据库。注意:函数 func在运行流应用的驱动中被执行,同时 其中一般函数 RDD 操作从而强制其 对于流 RDD 的运算

      通用的输出操作foreachRDD(),它用来对DStream中的RDD运行任意计算。这和transform()有些类似,都可以让我们访问任意RDD。在foreachRDD()中,可以重用我们在Spark中实现的所有行动操作。比如,常见的用例之一是把数据写到诸如MySQL的外部数据库中

      需要注意的是:

      1) 连接不能写在driver层面

      2) 如果写在foreach则每个RDD都创建,得不偿失

      3) 增加foreachPartition,在分区创建

      4) 可以考虑使用连接池优化

dstream.foreachRDD { rdd =>
  // error val connection = createNewConnection() // executed at the driver 序列化错误

  rdd.foreachPartition { partitionOfRecords =>
    // ConnectionPool is a static, lazily initialized pool of connections
    val connection = ConnectionPool.getConnection()
    partitionOfRecords.foreach(record => connection.send(record) // executed at the worker
    )
    ConnectionPool.returnConnection(connection) // return to the pool for future reuse
  }
}

4.6 累加器和广播变量

      累加器(Accumulators)和广播变量(Broadcast variables)不能从Spark Streaming的检查点中恢复。如果你启用检查并也使用了累加器和广播变量,那么你必须创建累加器和广播变量的延迟单实例从而在驱动因失效重启后他们可以被重新实例化。如下例述:

object WordBlacklist {

  @volatile private var instance: Broadcast[Seq[String]] = null

  def getInstance(sc: SparkContext): Broadcast[Seq[String]] = {
    if (instance == null) {
      synchronized {
        if (instance == null) {
          val wordBlacklist = Seq("a", "b", "c")
          instance = sc.broadcast(wordBlacklist)
        }
      }
    }
    instance
  }
}

object DroppedWordsCounter {

  @volatile private var instance: LongAccumulator = null

  def getInstance(sc: SparkContext): LongAccumulator = {
    if (instance == null) {
      synchronized {
        if (instance == null) {
          instance = sc.longAccumulator("WordsInBlacklistCounter")
        }
      }
    }
    instance
  }
}

wordCounts.foreachRDD{ (rdd: RDD[(String, Int)], time: Time) =>
  // Get or register the blacklist Broadcast
  val blacklist = WordBlacklist.getInstance(rdd.sparkContext)
  // Get or register the droppedWordsCounter Accumulator
  val droppedWordsCounter = DroppedWordsCounter.getInstance(rdd.sparkContext)
  // Use blacklist to drop words and use droppedWordsCounter to count them
  val counts = rdd.filter { case (word, count) =>
    if (blacklist.value.contains(word)) {
      droppedWordsCounter.add(count)
      false
    } else {
      true
    }
  }.collect().mkString("[", ", ", "]")
  val output = "Counts at time " + time + " " + counts
}

4.7 DataFrame and SQL Operations

      我们可以很容易地在流数据上使用DataFrames和SQL。但是必须使用SparkContext来创建StreamingContext要用的SQLContext。此外,这一过程可以在驱动失效后重启。我们通过创建一个实例化的SQLContext单实例来实现这个工作。如下例所示。我们对前例 word count进行修改从而使用DataFrames和SQL来产生word counts。每个RDD被转换为DataFrame,以临时表格配置并用SQL进行查询

val words: DStream[String] = ...

words.foreachRDD { rdd =>

  // Get the singleton instance of SparkSession
  val spark = SparkSession.builder.config(rdd.sparkContext.getConf).getOrCreate()
  import spark.implicits._

  // Convert RDD[String] to DataFrame
  val wordsDataFrame = rdd.toDF("word")

  // Create a temporary view
  wordsDataFrame.createOrReplaceTempView("words")

  // Do word count on DataFrame using SQL and print it
  val wordCountsDataFrame = spark.sql("select word, count(*) as total from words group by word")
  wordCountsDataFrame.show()
}

      我们也可以从不同的线程在定义于流数据的表上运行SQL查询(也就是说,异步运行StreamingContext)。仅确定你设置StreamingContext记住了足够数量的流数据以使得查询操作可以运行。否则,StreamingContext不会意识到任何异步的SQL查询操作,那么其就会在查询完成之后删除旧的数据。例如,如果你要查询最后一批次,但是你的查询会运行5分钟,那么你需要调用streamingContext.remember(Minutes(5))(in Scala, 或者其他语言的等价操作)

4.8 Caching/Persistence

      和RDDs类似,DStreams同样允许开发者将流数据保存在内存中。也就是说,在DStream上使用persist()方法将会自动把DStreams中的每个RDD保存在内存中。当DStream中的数据要被多次计算时,这个非常有用(如在同样数据上的多次操作)。对于像 reduceByWindow和reduceByKeyAndWindow以及基于状态的(updateStateByKey)这种操作,保存是隐含默认的。因此,即使开发者没有调用persist(),由基于窗操作产生的DStreams会自动保存在内存中

4.9 7x24 不间断运行

  4.9.1 检查点机制

      检查点机制是我们在Spark Streaming中用来保障容错性的主要机制。与应用程序逻辑无关的错误(即系统错位,JVM崩溃等)有迅速恢复的能力

      它可以使Spark Streaming阶段性地把应用数据存储到诸如HDFS或Amazon S3这样的可靠存储系统中,以供恢复时使用。具体来说,检查点机制主要为以下两个目的服务

        1)  控制发生失败时需要重算的状态数。SparkStreaming可以通过转化图的谱系图来重算状态,检查点机制则可以控制需要在转化图中回溯多远

        2)  提供驱动器程序容错。如果流计算应用中的驱动器程序崩溃了,你可以重启驱动器程序并让驱动器程序从检查点恢复,这样Spark Streaming就可以读取之前运行的程序处理数据的进度,并从那里继续

      为了实现这个,Spark Streaming需要为容错存储系统checkpoint足够的信息从而使得其可以从失败中恢复过来。有两种类型的数据设置检查点

      Metadata checkpointing:将定义流计算的信息存入容错的系统如HDFS

      元数据包括:

        配置-用于创建流应用的配置

        DStreams操作-定义流应用的DStreams操作集合

        不完整批次-批次的工作已进行排队但是并未完成

      Data checkpointing:将产生的RDDs存入可靠的存储空间。对于在多批次间合并数据的状态转换,这个很有必要。在这样的转换中,RDDs的产生基于之前批次的RDDs,这样依赖链长度随着时间递增。为了避免在恢复期这种无限的时间增长(和链长度成比例),状态转换中间的RDDs周期性写入可靠地存储空间(如HDFS)从而切短依赖链

      总而言之,元数据检查点在由驱动失效中恢复是首要需要的。而数据或者RDD检查点甚至在使用了状态转换的基础函数中也是必要的

      出于这些原因,检查点机制对于任何生产环境中的流计算应用都至关重要。我们可以通过向ssc.checkpoint()方法传递一个路径参数(HDFS、S3或者本地路径均可)来配置检查点机制,同时我们的应用应该能够使用检查点的数据

      1. 当程序首次启动,其将创建一个新的StreamingContext,设置所有的流并调用start()

      2. 当程序在失效后重启,其将依据检查点目录的检查点数据重新创建一个StreamingContext。通过使用StraemingContext.getOrCreate很容易获得这个性能

ssc.checkpoint("hdfs://...") ?

# 创建和设置一个新的StreamingContext
def functionToCreateContext():
    sc = SparkContext(...) # new context
    ssc = new StreamingContext(...)
    lines = ssc.socketTextStream(...) # create DStreams
    ...
    ssc.checkpoint(checkpointDirectory) # 设置检查点目录
    return ssc
# 从检查点数据中获取 StreamingContext 或者重新创建一个
context = StreamingContext.getOrCreate(checkpointDirectory, functionToCreateContext)

# 在需要完成的 context 上做额外的配置 # 无论其有没有启动
context ...
# 启动context
context.start()
contaxt.awaitTermination()

      如果检查点目录(checkpointDirectory)存在,那么context将会由检查点数据重新创建。如果目录不存在(首次运行),那么函数functionToCreateContext将会被调用来创建一个新的context并设置DStreams

      注意RDDs的检查点引起存入可靠内存的开销。在RDDs需要检查点的批次里,处理的时间会因此而延长。所以,检查点的间隔需要很仔细地设置。在小尺寸批次(1 秒钟)。每一批次检查点会显著减少操作吞吐量。反之,检查点设置的过于频繁导致“血统”和任务尺寸增长,这会有很不好的影响对于需要 RDD检查点设置的状态转换,默认间隔是批次间隔的乘数一般至少为10秒钟。可以通过dstream.checkpoint(checkpointInterval)。通常,检查点设置间隔是5-10个DStream的滑动间隔

  4.9.2 WAL 预写日志

      WAL即write ahead log(预写日志),是在1.2 版本中就添加的特性。作用就是,将数据通过日志的方式写到可靠的存储,比如HDFS、s3,在driver或worker failure时可以从在可靠存储上的日志文件恢复数据。WAL在driver端和executor端都有应用

      WAL在driver端的应用

      用于写日志的对象writeAheadLogOption:WriteAheadLog。在StreamingContext中的JobScheduler中的ReceiverTracker的ReceivedBlockTracker构造函数中被创建,ReceivedBlockTracker用于管理已接收到的blocks信息。需要注意的是,这里只需要启用 checkpoint就可以创建该driver端的WAL管理实例,而不需要将spark.streaming.receiver.writeAheadLog.enable设置为true

      写什么、何时写

      首选需要明确的是,ReceivedBlockTracker通过WAL写入log文件的内容是3种事件(当然,会进行序列化):

        case class BlockAdditionEvent(receivedBlockInfo: ReceivedBlockInfo);即新增了一个block及该block的具体信息,包括streamId、blockId、数据条数等

        case class BatchAllocationEvent(time: Time, allocatedBlocks: AllocatedBlocks);即为某个batchTime分配了哪些blocks作为该batch RDD的数据源

        case class BatchCleanupEvent(times: Seq[Time]);即清理了哪些batchTime对应的block

        知道了写了什么内容,结合源码,也不难找出是什么时候写了这些内容。需要再次注意的是,写上面这三种事件,也不需要将spark.streaming.receiver.writeAheadLog.enable设置为true

      WAL在executor端的应用

      Receiver接收到的数据会源源不断的传递给ReceiverSupervisor,是否启用WAL机制(即是否将spark.streaming.receiver.writeAheadLog.enable设置为true)会影响ReceiverSupervisor在存储block时的行为:

        不启用 WAL:你设置的StorageLevel是什么,就怎么存储。比如MEMORY_ONLY只会在内存中存一份,MEMORY_AND_DISK会在内存和磁盘上各存一份等

        启用 WAL:在StorageLevel指定的存储的基础上,写一份到WAL中。存储一份在WAL上,更不容易丢数据但性能损失也比较大

      关于是否要启用WAL,要视具体的业务而定:

        若可以接受一定的数据丢失,则不需要启用 WAL,因为对性能影响较大

        若完全不能接受数据丢失,那就需要同时启用checkpoint和WAL,checkpoint保存着执行进度(比如已生成但未完成的jobs),WAL中保存着blocks及blocks元数据(比如保存着未完成的jobs对应的blocks信息及block文件)。同时,这种情况可能要在数据源和 Streaming Application中联合来保证exactly once语义

      预写日志功能的流程是:

      1) 一个SparkStreaming应用开始时(也就是driver开始时),相关的StreamingContext使用SparkContext启动接收器成为长驻运行任务。这些接收器接收并保存流数据到Spark内存中以供处理

      2) 接收器通知driver

      3) 接收块中的元数据(metadata)被发送到driver的StreamingContext。

      这个元数据包括:

        (a) 定位其在executor内存中数据的块referenceid

        (b) 块数据在日志中的偏移信息(如果启用了)

      用户传送数据的生命周期如下图所示:

      

  4.9.3 背压机制

      默认情况下,Spark Streaming通过Receiver以生产者生产数据的速率接收数据,计算过程中会出现batch processing time > batch interval的情况,其中batch processing time为实际计算一个批次花费时间,batch interval为Streaming应用设置的批处理间隔。这意味着Spark Streaming的数据接收速率高于Spark从队列中移除数据的速率,也就是数据处理能力低,在设置间隔内不能完全处理当前接收速率接收的数据。如果这种情况持续过长的时间,会造成数据在内存中堆积,导致Receiver所在Executor内存溢出等问题(如果设置StorageLevel包含disk,则内存存放不下的数据会溢写至disk,加大延迟)。Spark 1.5 以前版本,用户如果要限制Receiver的数据接收速率,可以通过设置静态配制参数“spark.streaming.receiver.maxRate”的值来实现,此举虽然可以通过限制接收速率,来适配当前的处理能力,防止内存溢出,但也会引入其它问题。比如:producer数据生产高于maxRate,当前集群处理能力也高于maxRate,这就会造成资源利用率下降等问题。为了更好的协调数据接收速率与资源处理能力,Spark Streaming从 v1.5 开始引入反压机制(back-pressure),通过动态控制数据接收速率来适配集群数据处理能力

      Spark Streaming Backpressure: 根据JobScheduler反馈作业的执行信息来动态调整Receiver数据接收率。通过属性“spark.streaming.backpressure.enabled”来控制是否启用backpressure机制,默认值false,即不启用

      Streaming架构如下图所示

      

      在原架构的基础上加上一个新的组件RateController,这个组件负责监听“OnBatchCompleted”事件,然后从中抽取processingDelay及schedulingDelay信息。Estimator依据这些信息估算出最大处理速度(rate),最后由基于Receiver的Input Stream将rate通过ReceiverTracker与 ReceiverSupervisorImpl转发给 BlockGenerator(继承自RateLimiter)

      

      流量控制点

      当Receiver开始接收数据时,会通过supervisor.pushSingle()方法将接收的数据存入currentBuffer等待BlockGenerator定时将数据取走,包装成block。在将数据存放入currentBuffer之时,要获取许可(令牌)。如果获取到许可就可以将数据存入buffer, 否则将被阻塞,进而阻塞Receiver从数据源拉取数据

      其令牌投放采用令牌桶机制进行,原理如下图所示:

      

      令牌桶机制:大小固定的令牌桶可自行以恒定的速率源源不断地产生令牌。如果令牌不被消耗,或者被消耗的速度小于产生的速度,令牌就会不断地增多,直到把桶填满。后面再产生的令牌就会从桶中溢出。最后桶中可以保存的最大令牌数永远不会超过桶的大小。当进行某操作时需要令牌时会从令牌桶中取出相应的令牌数,如果获取到则继续操作,否则阻塞。用完之后不用放回

  4.9.4 驱动器程序容错

      驱动器程序的容错要求我们以特殊的方式创建StreamingContext。我们需要把检查点目录提供给StreamingContext。与直接调用new StreamingContext不同,应该使用StreamingContext.getOrCreate()函数

      配置过程如下:

      1、 启动 Driver 自动重启功能

        standalone: 提交任务时添加 --supervise 参数

        yarn:设置yarn.resourcemanager.am.max-attempts 或者spark.yarn.maxAppAttempts

        mesos: 提交任务时添加 --supervise 参数

      2、 设置 checkpoint

        StreamingContext.setCheckpoint(hdfsDirectory)

      3、支持从 checkpoint 中重启配置

def createContext(checkpointDirectory: String): StreamingContext = {
    val ssc = new StreamingContext ssc.checkpoint(checkpointDirectory)
    ssc
}
val ssc = StreamingContext.getOrCreate(checkpointDirectory, createContext(checkpointDirectory))

  4.9.5 工作节点容错

      为了应对工作节点失败的问题,Spark Streaming使用与Spark的容错机制相同的方法。所有从外部数据源中收到的数据都在多个工作节点上备份。所有从备份数据转化操作的过程中创建出来的RDD都能容忍一个工作节点的失败,因为根据RDD谱系图,系统可以把丢失的数据从幸存的输入数据备份中重算出来。对于reduceByKey等Stateful操作重做的lineage较长的,强制启动checkpoint,减少重做几率

  4.9.6 接收器容错

      运行接收器的工作节点的容错也是很重要的。如果这样的节点发生错误,SparkStreaming会在集群中别的节点上重启失败的接收器。然而,这种情况会不会导致数据的丢失取决于数据源的行为(数据源是否会重发数据)以及接收器的实现(接收器是否会向数据源确认收到数据)。举个例子,使用Flume作 为数据源时,两种接收器的主要区别在于数据丢失时的保障。在“接收器从数 据池中拉取数据”的模型中,Spark只会在数据已经在集群中备份时才会从数据池中移除元素。而在“向接收器推数据”的模型中,如果接收器在数据备份之前失败,一些数据可能就会丢失。总的来说,对于任意一个接收器,你必须同时考 虑上游数据源的容错性(是否支持事务)来确保零数据丢失

      一般主要是通过将接收到数据后先写日志(WAL)到可靠文件系统中,后才写入实际的RDD。如果后续处理失败则成功写入WAL的数据通过WAL进行恢复,未成功写入WAL的数据通过可回溯的Source进行重放

      总的来说,接收器提供以下保证

        1) 所有从可靠文件系统中读取的数据(比如通过StreamingContext.hadoopFiles读取的)都是可靠的,因为底层的文件系统是有备份的。Spark Streaming会记住哪些数据存放到了检查点中,并在应用崩溃后从检查点处继续执行

        2) 对于像Kafka、推式Flume、Twitter这样的不可靠数据源,Spark会把输入数据复制到其他节点上,但是如果接收器任务崩溃,Spark还是会丢失数据。在Spark 1.1以及更早的版本中,收到的数据只被备份到执行器进程的内存中,所以一旦驱动器程序崩溃(此时所有的执行器进程都会丢失连接), 数据也会丢失。在Spark 1.2 中,收到的数据被记录到诸如HDFS这样的可靠的文件系统中,这样即使驱动器程序重启也不会导致数据丢失

      综上所述,确保所有数据都被处理的最佳方式是使用可靠的数据源(例如HDFS、拉式 Flume 等)。如果我们还要在批处理作业中处理这些数据,使用可靠数据源是最佳方式,因为这种方式确保了我们的批处理作业和流计算作业能读取到相同的数据,因而可以得到相同的结果

      操作过程如下:

        启用checkpoint

          -ssc.setCheckpoint(checkpointDir)

        启用 WAL

          -sparkConf.set("spark.streaming.receiver.writeAheadLog.enable", "true")

        对Receiver使用可靠性存储StoreageLevel.MEMORY_AND_DISK_SER or StoreageLevel.MEMORY_AND_DISK_SER2

  4.9.7 处理保证

      由于Spark Streaming工作节点的容错保障,Spark Streaming可以为所有的转化操作提供 “精确一次”执行的语义,即使一个工作节点在处理部分数据时发生失败,最终的转化结果(即转化操作得到的RDD)仍然与数据只被处理一次得到的结果一样

      然而,当把转化操作得到的结果使用输出操作推入外部系统中时,写结果的任务可能因故障而执行多次,一些数据可能也就被写了多次。由于这引入了外部系统,因此我们需要专门针对各系统的代码来处理这样的情况。我们可以使用事务操作来写入外部系统(即原子化地将一个RDD分区一次写入), 或者设计幂等的更新操作(即多次运行同一个更新操作仍生成相同的结果)。比如Spark Streaming的saveAs...File操作会在一个文件写完时自动将其原子化地移动到最终位置上,以此确保每个输出文件只存在一份

4.10 性能考量

      最常见的问题是Spark Streaming可以使用的最小批次间隔是多少。总的来说,500毫秒已经被证实为对许多应用而言是比较好的最小批次大小。寻找最小批次大小的最佳实践是从一个比较大的批次大小(10秒左右)开始,不断使用更小的批次大小。如果Streaming用户界面中显示的处理时间保持不变,我们就可以进一步减小批次大小。如果处理时间开始增加,我们可能已经达到了应用的极限

      相似地,对于窗口操作,计算结果的间隔(也就是滑动步长)对于性能也有巨大的影响。当计算代价巨大并成为系统瓶颈时,就应该考虑提高滑动步长了。减少批处理所消耗时间的常见方式还有提高并行度。有以下三种方式可以提高并行度:

        1) 增加接收器数目有时如果记录太多导致单台机器来不及读入并分发的话,接收器会成为系统瓶颈。这时我们就需要通过创建多个输入DStream(这样会创建多个接收器)来增加接收器数目,然后使用union来把数据合并为一个数据源

        2) 将收到的数据显式地重新分区如果接收器数目无法再增加,我们可以通过使用DStream.repartition来显式重新分区输入流(或者合并多个流得到的数据流)来重新分配收到的数据

        3) 提高聚合计算的并行度?对于像reduceByKey()这样的操作,我们可以在第二个参数中指定并行度,我们在介绍RDD时提到过类似的手段

原文地址:https://www.cnblogs.com/zhanghuicheng/p/11236804.html

时间: 09-29

4. Spark Streaming解析的相关文章

第16课:Spark Streaming源码解读之数据清理内幕彻底解密

本期内容: Spark Streaming数据清理原因和现象 Spark Streaming数据清理代码解析 对Spark Streaming解析了这么多课之后,我们越来越能感知,Spark Streaming只是基于Spark Core的一个应用程序,因此掌握Spark Streaming对于我们怎么编写Spark应用是绝对有好处的. Spark Streaming 不像Spark Core的应用程序,Spark Core的应用的数据是存储在底层文件系统,如HDFS等别的存储系统中,而Spar

第1课:通过案例对Spark Streaming透彻理解三板斧之一Spark Streaming另类实验及本质解析

一. 源码定制为什么从Spark Streaming切入? Spark 一开始并没我们今天看到的Spark SQL, Spark Streaming, MLlib(machine learning), GraphX(graph), Spark R等相关内容,只有原始的Spark Core. Spark Streaming本身是Spark Core上的一个框架,透过一个框架的彻底研究肯定可以精通Spark力量的源泉和所有Spark问题的解决之道. Spark现在使用较多的除了Spark Core之

Spark版本定制第5天:案列解析Spark Streaming运行源码

本期内容: 1 在线动态计算分类最热门商品案例回顾与演示 2 基于案例贯通Spark Streaming的运行源码 一切不能进行实时流处理的数据都是无效的数据.在流处理时代,SparkStreaming有着强大吸引力,而且发展前景广阔,加之Spark的生态系统,Streaming可以方便调用其他的诸如SQL,MLlib等强大框架,它必将一统天下. Spark Streaming运行时与其说是Spark Core上的一个流式处理框架,不如说是Spark Core上的一个最复杂的应用程序.如果可以掌

Spark Streaming运行流程及源码解析(二)

目录 写在前面 开干 启动流处理引擎 StreamingContext的创建 outputOperator算子注册 StreamingContext的启动 接收并存储数据 Driver端ReceiverTracker的操作 Executor端ReceiverSupervisor的操作 开始接收数据.存储数据 生成job.执行job JobGenerator介绍 生成job 提交执行job 输出数据 Spark Streaming源码流程解析. 写在前面 以下是我自己梳理了一遍Spark Stre

6.Spark streaming技术内幕 : Job动态生成原理与源码解析

原创文章,转载请注明:转载自 周岳飞博客(http://www.cnblogs.com/zhouyf/) Spark streaming 程序的运行过程是将DStream的操作转化成RDD的操作,Spark Streaming 和 Spark Core 的关系如下图(图片来自spark官网) Spark Streaming 会按照程序设定的时间间隔不断动态生成Job来处理输入数据,这里的Job生成是指将Spark Streaming 的程序翻译成Spark内核的RDD操作,翻译的过程并不会触发J

3.spark streaming Job 架构和容错解析

一.Spark streaming Job 架构 SparkStreaming框架会自动启动Job并每隔BatchDuration时间会自动触发Job的调用. Spark Streaming的Job 分为两大类: 每隔BatchInterval时间片就会产生的一个个Job,这里的Job并不是Spark Core中的Job,它只是基于DStreamGraph而生成的RDD的DAG而已:从Java角度讲相当于Runnable接口的实现类,要想运行Job需要将Job提交给JobScheduler,在J

第89课:Spark Streaming on Kafka解析和安装实战

本课分2部分讲解: 第一部分,讲解Kafka的概念.架构和用例场景: 第二部分,讲解Kafka的安装和实战. 由于时间关系,今天的课程只讲到如何用官网的例子验证Kafka的安装是否成功.后续课程会接着讲解如何集成Spark Streaming和Kafka. 一.Kafka的概念.架构和用例场景 http://kafka.apache.org/documentation.html#introdution 1.Kafka的概念 Apache Kafka是分布式发布-订阅消息系统.它最初由Linked

Spark Streaming中动态Batch Size深入及RateController解析

本期内容 : BatchDuration与 Process Time 动态Batch Size Spark Streaming中有很多算子,是否每一个算子都是预期中的类似线性规律的时间消耗呢? 例如:join操作和普通Map操作的处理数据的时间消耗是否会呈现出一致的线性规律呢,也就是说,并非数据量规模越大就是简单加大BatchDuration 就可以解决问题的,数据量是一个方面,计算的算子也是一个考量的因素. 使用BatchSize来适配我们的流处理程序 : 线上的处理程序越来越重要,流入的数据

第89讲:Spark Streaming on Kafka解析和安装实战

本课分2部分讲解: 第一部分,讲解Kafka的概念.架构和用例场景: 第二部分,讲解Kafka的安装和实战. 由于时间关系,今天的课程只讲到如何用官网的例子验证Kafka的安装是否成功.后续课程会接着讲解如何集成Spark Streaming和Kafka. 一.Kafka的概念.架构和用例场景 http://kafka.apache.org/documentation.html#introdution 1.Kafka的概念 Apache Kafka是分布式发布-订阅消息系统.它最初由Linked