基本概念

在具体讲解Spark运行架构之前,需要先了解几个重要的概念:

  • RDD:是弹性分布式数据集(Resilient Distributed Dataset)的简称,是分布式内存的一个抽象概念,提供了一种高度受限的共享内存模型;

  • DAG:是Directed Acyclic Graph(有向无环图)的简称,反映RDD之间的依赖关系;

  • Executor:是运行在工作节点(Worker Node)上的一个进程,负责运行任务,并为应用程序存储数据;

  • 应用:用户编写的Spark应用程序;

  • 任务:运行在Executor上的工作单元;

  • 作业:一个作业包含多个RDD及作用于相应RDD上的各种操作;

  • 阶段:是作业的基本调度单位,一个作业会分为多组任务,每组任务被称为“阶段”,或者也被称为“任务集”。

架构设计

如图9-5所示,Spark运行架构包括集群资源管理器(Cluster Manager)、运行作业任务的工作节点(Worker Node)、每个应用的任务控制节点(Driver)和每个工作节点上负责具体任务的执行进程(Executor)。其中,集群资源管理器可以是Spark自带的资源管理器,也可以是YARN或Mesos等资源管理框架。
与Hadoop MapReduce计算框架相比,Spark所采用的Executor有两个优点:一是利用多线程来执行具体的任务(Hadoop MapReduce采用的是进程模型),减少任务的启动开销;二是Executor中有一个BlockManager存储模块,会将内存和磁盘共同作为存储设备,当需要多轮迭代计算时,可以将中间结果存储到这个存储模块里,下次需要时,就可以直接读该存储模块里的数据,而不需要读写到HDFS等文件系统里,因而有效减少了IO开销;或者在交互式查询场景下,预先将表缓存到该存储系统上,从而可以提高读写IO性能。


图9-5 Spark运行架构

总体而言,如图9-6所示,在Spark中,一个应用(Application)由一个任务控制节点(Driver)和若干个作业(Job)构成,一个作业由多个阶段(Stage)构成,一个阶段由多个任务(Task)组成。当执行一个应用时,任务控制节点会向集群管理器(Cluster Manager)申请资源,启动Executor,并向Executor发送应用程序代码和文件,然后在Executor上执行任务,运行结束后,执行结果会返回给任务控制节点,或者写到HDFS或者其他数据库中。


图9-6 Spark中各种概念之间的相互关系

Spark运行基本流程

如图9-7 所示,Spark的基本运行流程如下:
(1)当一个Spark应用被提交时,首先需要为这个应用构建起基本的运行环境,即由任务控制节点(Driver)创建一个SparkContext,由SparkContext负责和资源管理器(Cluster
Manager)的通信以及进行资源的申请、任务的分配和监控等。SparkContext会向资源管理器注册并申请运行Executor的资源;
(2)资源管理器为Executor分配资源,并启动Executor进程,Executor运行情况将随着“心跳”发送到资源管理器上;
(3)SparkContext根据RDD的依赖关系构建DAG图,DAG图提交给DAG调度器(DAGScheduler)进行解析,将DAG图分解成多个“阶段”(每个阶段都是一个任务集),并且计算出各个阶段之间的依赖关系,然后把一个个“任务集”提交给底层的任务调度器(TaskScheduler)进行处理;Executor向SparkContext申请任务,任务调度器将任务分发给Executor运行,同时,SparkContext将应用程序代码发放给Executor;
(4)任务在Executor上运行,把执行结果反馈给任务调度器,然后反馈给DAG调度器,运行完毕后写入数据并释放所有资源。


图9-7 Spark运行基本流程图

总体而言,Spark运行架构具有以下特点:
(1)每个应用都有自己专属的Executor进程,并且该进程在应用运行期间一直驻留。Executor进程以多线程的方式运行任务,减少了多进程任务频繁的启动开销,使得任务执行变得非常高效和可靠;
(2)Spark运行过程与资源管理器无关,只要能够获取Executor进程并保持通信即可;
(3)Executor上有一个BlockManager存储模块,类似于键值存储系统(把内存和磁盘共同作为存储设备),在处理迭代计算任务时,不需要把中间结果写入到HDFS等文件系统,而是直接放在这个存储系统上,后续有需要时就可以直接读取;在交互式查询场景下,也可以把表提前缓存到这个存储系统上,提高读写IO性能;
(4)任务采用了数据本地性和推测执行等优化机制。数据本地性是尽量将计算移到数据所在的节点上进行,即“计算向数据靠拢”,因为移动计算比移动数据所占的网络资源要少得多。而且,Spark采用了延时调度机制,可以在更大的程度上实现执行过程优化。比如,拥有数据的节点当前正被其他的任务占用,那么,在这种情况下是否需要将数据移动到其他的空闲节点呢?答案是不一定。因为,如果经过预测发现当前节点结束当前任务的时间要比移动数据的时间还要少,那么,调度就会等待,直到当前节点可用。

最新文章

  1. MyISAM和InnoDB
  2. [总结] JDBC数据库操作
  3. 【Arduino】旋转编码器的Arduino使用方法
  4. spark分片个数的确定及Spark内存错误(GC error)的迂回解决方式
  5. Unbutu网卡驱动安装(Intel内置网卡8086:15b8)
  6. PHP实现递归的三种方法
  7. APK反编译。
  8. 第27本:《学得少却考得好Learn More Study Less》
  9. PHP CURL 代理发送数据
  10. 老李推荐:第6章7节《MonkeyRunner源码剖析》Monkey原理分析-事件源-事件源概览-注入按键事件实例
  11. mongodb与spring mvc 整合
  12. 解决git 不同branch 下node_moudes不同步的问题
  13. JIRA应用的内存参数设置不当+容器没有对资源进行限制导致服务挂掉的例子
  14. 小tips:JSON对象和字符串之间的相互转换JSON.stringify(obj)和JSON.parse(string)
  15. JAVA消息确认机制之ACK模式
  16. 自学Linux Shell8.2-linux逻辑卷LVM管理
  17. Strom开发配置手册
  18. java的struts2项目实现网站首页只显示域名不显示index.do的做法
  19. Log4Net的应用教程之保存日志到数据库中
  20. mock数据和代码生成

热门文章

  1. SQLServer 存储过程详解
  2. 常见Http访问错误小结
  3. python中字符串格式化的意义(化妆)
  4. 安装haroopad
  5. Hive Server2(五)
  6. 清北学堂dp图论营游记day2
  7. Centos 7搭建Gitlab服务器以及操作(创建项目,创建群组,创建用户,添加密钥)
  8. 微信小程序 点击事件 传递参数
  9. JavaScript原型初学者指南
  10. 胡昊—第6次作业—static关键字、对象