SparkSQL 与 Spark Core的关系
2024-08-31 08:37:44
不多说,直接上干货!
SparkSQL 与 Spark Core的关系
Spark SQL构建在Spark Core之上,专门用来处理结构化数据(不仅仅是SQL)。
Spark SQL在Spark Core的基础上针对结构化数据处理进行很多优化和改进,
简单来讲:
Spark SQL 支持很多种结构化数据源,可以让你跳过复杂的读取过程,轻松从各种数据源中读取数据
当你使用SQL查询这些数据源中的数据并且只用到了一部分字段时,SparkSQL可以智能地只扫描这些用到的字段,而不是像SparkContext.hadoopFile中那样简单粗暴地扫描全部数据.
关于Spark SQL更多,请见
Spark SQL概念学习系列之Spark SQL概述
最新文章
- [AS3.0] HTMLLoader与js交互
- 软件工程练习, 模块化,单元测试,回归测试,TDD
- Android性能优化的浅谈
- iOS 公司开发者账号申请
- Linux学习之七——乱码的解决方案
- c函数调用过程原理及函数栈帧分析
- [Effective C++ --015]在资源管理类中提供对原始资源的访问
- Activiti 使用自己的身份认证服务
- VirtualBox虚拟机安装RedHat7.3编译Linux0.01内核
- python socketserver实现客户端多并发
- 201521123028 《Java程序设计》第13周学习总结
- 四、Spring Boot 多数据源 自动切换
- Python内置函数(40)——dir
- 【OpenCV】SIFT原理与源码分析:DoG尺度空间构造
- mysql重要sql小记
- mysql存储过程中使用游标
- WCF使用Net.tcp绑定时候出现错误:元数据包含无法解析的引用
- CSS Notes
- node.js 开发桌面程序, 10个令人惊讶的NodeJS开源项目
- python 读取二进制数据到可变缓冲区中