一、Spark Streaming工作机制

  1. 在Spark Streaming中,会有一个组件Receiver,作为一个长期运行的task跑在一个Executor上;
  2. 每个Receiver都会负责一个input DStream(比如从文件中读取数据的文件流,比如套接字流,或者从Kafka中读取的一个输入流等等);
  3. Spark Streaming通过input DStream外部数据源进行连接,读取相关数据。

二、Spark Streaming程序的基本步骤

1.通过创建输入DStream来定义输入源

2.通过对DStream应用转换操作和输出操作来定义流计算;

3.用streamingContext.start()来开始接收数据和处理流程

4.通过streamingContext.awaitTermination()方法来等待处理结束(手动结束或因为错误而结束);

5.可以通过streamingContext.stop()来手动结束流计算进程

三、创建StreamingContext对象

  如果要运行一个Spark Streaming程序,就需要首先生成一个StreamingContext对象,它是Spark Streaming程序的主入口。

(1)可以从一个SparkConf对象创建一个StreamingContext对象登录Linux系统后,启动spark-shell。进入spark-shell以后,就已经获得了一个默认的SparkConext,也就是sc。因此,可以采用如下方式来创建StreamingContext对象:【ssc是streamingcontext的缩写,sc是sparkcontext的缩写,Seconds(1)表示每隔1s去切分数据流】

(2)如果是编写一个独立的Spark Streaming程序,而不是在spark-shell中运行,则需要通过如下方式创建StreamingContext对象:

参考文献:

【1】https://www.icourse163.org/learn/XMU-1205811805?tid=1206617233&from=study#/learn/content?type=detail&id=1211383869&sm=1

最新文章

  1. 使用FIR.im发布自己的移动端APP
  2. Linux 命令与文件的搜寻
  3. Effective Java 读书笔记之三 类和接口
  4. Windows程序设计(第五版)学习:第二章 Unicode简介
  5. windows系统 安装MongoDB 32位
  6. 怎样在loop中处理异常
  7. Event — Windows API
  8. 如何解压 Mac OS X 下的 PKG 文件(网摘)
  9. codefroces 612E Square Root of Permutation
  10. Prefix tree
  11. springboot+mybatis环境的坑和sql语句简化技巧
  12. display:inline-block; 在css中是什么意思?
  13. oracle表空间大小的限制和DB_BLOCK_SIZE的概念
  14. c#中数组的总结
  15. BUPT2017 wintertraining(15) #2 题解
  16. GOAP
  17. 转转转!!java基础一些静态代码块等知识点
  18. 解决git commit 遇到datached HEAD问题
  19. linux普通用户获取管理员权限
  20. ubuntu软件安装

热门文章

  1. linux 命令之touch
  2. LInux:服务的管理-systemctl
  3. 洛谷 P5686 [CSP-SJX2019]和积和
  4. Eviews作时间序列分析的一个实例
  5. Luogu P5408 【模板】第一类斯特林数·行
  6. 趣谈Linux操作系统学习笔记:第二十九讲
  7. Python模块import本质是什么?import是什么
  8. VMware下扩展Ubuntu根分区大小
  9. 创 PHP RSA2 签名算法
  10. hive on spark 常用配置