输入DStreams表示从数据源获取输入数据流的DStreams。在快速例子中,lines
表示输入DStream,它代表从netcat服务器获取的数据流。每一个输入流DStream
和一个Receiver
对象相关联,这个Receiver
从源中获取数据,并将数据存入内存中用于处理。
输入DStreams表示从数据源获取的原始数据流。Spark Streaming拥有两类数据源
需要注意的是,如果你想在一个流应用中并行地创建多个输入DStream来接收多个数据流,你能够创建多个输入流(这将在性能调优那一节介绍)
。它将创建多个Receiver同时接收多个数据流。但是,receiver
作为一个长期运行的任务运行在Spark worker或executor中。因此,它占有一个核,这个核是分配给Spark Streaming应用程序的所有
核中的一个(it occupies one of the cores allocated to the Spark Streaming application)。所以,为Spark Streaming应用程序分配足够的核(如果是本地运行,那么是线程)
用以处理接收的数据并且运行receiver
是非常重要的。
几点需要注意的地方:
receiver
的输入DStream将会占用这个核,这样就没有剩余的核来处理数据了。我们已经在快速例子中看到,ssc.socketTextStream(...)
方法用来把从TCP套接字获取的文本数据创建成DStream。除了套接字,StreamingContext API也支持把文件
以及Akka actors作为输入源创建DStream。
streamingContext.fileStream[keyClass, valueClass, inputFormatClass](dataDirectory)
Spark Streaming将会监控dataDirectory
目录,并且处理目录下生成的任何文件(嵌套目录不被支持)。需要注意一下三点:
1 所有文件必须具有相同的数据格式
2 所有文件必须在`dataDirectory`目录下创建,文件是自动的移动和重命名到数据目录下
3 一旦移动,文件必须被修改。所以如果文件被持续的附加数据,新的数据不会被读取。
对于简单的文本文件,有一个更简单的方法streamingContext.textFileStream(dataDirectory)
可以被调用。文件流不需要运行一个receiver,所以不需要分配核。
在Spark1.2中,fileStream
在Python API中不可用,只有textFileStream
可用。
streamingContext.actorStream(actorProps, actor-name)
方法从Akka actors获取的数据流来创建。具体的信息见自定义receiver指南
actorStream
在Python API中不可用。streamingContext.queueStream(queueOfRDDs)
方法基于RDD队列创建DStreams。每个push到队列的RDD都被
当做DStream的批数据,像流一样处理。关于从套接字、文件和actor中获取流的更多细节,请看StreamingContext和 JavaStreamingContext
这类源需要非Spark库接口,并且它们中的部分还需要复杂的依赖(例如kafka和flume)。为了减少依赖的版本冲突问题,从这些源创建DStream的功能已经被移到了独立的库中,你能在关联查看 细节。例如,如果你想用来自推特的流数据创建DStream,你需要按照如下步骤操作:
spark-streaming-twitter_2.10
到SBT或maven项目的依赖中TwitterUtils
类,用TwitterUtils.createStream
方法创建DStream,如下所示import org.apache.spark.streaming.twitter._
TwitterUtils.createStream(ssc)
需要注意的是,这些高级的源在spark-shell
中不能被使用,因此基于这些源的应用程序无法在shell中测试。
下面将介绍部分的高级源:
Twitter4j 3.0.3
获取公共的推文流,这些推文通过推特流API获得。认证信息可以通过Twitter4J库支持的
任何方法提供。你既能够得到公共流,也能够得到基于关键字过滤后的流。你可以查看API文档(scala和java)
和例子(TwitterPopularTags和TwitterAlgebirdCMS)在Spark 1.2中,这些源不被Python API支持。
输入DStream也可以通过自定义源创建,你需要做的是实现用户自定义的receiver
,这个receiver
可以从自定义源接收数据以及将数据推到Spark中。通过自定义receiver指南了解详细信息
基于可靠性有两类数据源。源(如kafka、flume)允许。如果从这些可靠的源获取数据的系统能够正确的应答所接收的数据,它就能够确保在任何情况下不丢失数据。这样,就有两种类型的receiver:
怎样编写可靠的Receiver的细节在自定义receiver中有详细介绍。