Spark SQL怎么创建编程创建DataFrame
2024-08-22 00:25:32
创建DataFrame在Spark SQL中,开发者可以非常便捷地将各种内、外部的单机、分布式数据转换为DataFrame。以下Python示例代码充分体现了Spark SQL 1.3.0中DataFrame数据源的丰富多样和简单易用:
- # 从Hive中的users表构造DataFrame
- users = sqlContext.table("users")
- # 加载S3上的JSON文件
- logs = sqlContext.load("s3n://path/to/data.json", "json")
- # 加载HDFS上的Parquet文件
- clicks = sqlContext.load("hdfs://path/to/data.parquet", "parquet")
- # 通过JDBC访问MySQL
- comments = sqlContext.jdbc("jdbc:mysql://localhost/comments", "user")
- # 将普通RDD转变为DataFrame
- rdd = sparkContext.textFile("article.txt") \
- .flatMap(lambda line: line.split()) \
- .map(lambda word: (word, 1)) \
- .reduceByKey(lambda a, b: a + b) \
- wordCounts = sqlContext.createDataFrame(rdd, ["word", "count"])
- # 将本地数据容器转变为DataFrame
- data = [("Alice", 21), ("Bob", 24)]
- people = sqlContext.createDataFrame(data, ["name", "age"])
- # 将Pandas DataFrame转变为Spark DataFrame(Python API特有功能)
- sparkDF = sqlContext.createDataFrame(pandasDF)
最新文章
- [搬砖]Pycharm中启动IPython notebook失败提示load_entry_point ImportError: Entry point ('console_scripts', 'ipython') not found的解决方法
- Sql 2012 远程数据库连接
- CSS3媒体查询
- [ActionScript 3.0] AS3.0 动态加载显示内容
- 1056. Mice and Rice (25)
- 用于显示上个月和下个月_PHP
- PL/SQL中的变量
- 【枚举+贪心】【TOJ3981】【ICPC Balloons】
- Libgdx Box2D现实---这缓释微丸(两:Box2D介绍)
- web自动化1-selenium简介及环境搭建
- D - MUH and Cube Walls
- 获取本地ip
- openvpn服务器一键脚本生成客户端文件
- C#操作剪切板(Clipboard)
- shiro 介绍和基本使用
- Fabric动态增加组织【资料】
- ansible的logging模块用来写日志
- 在vue2.0中引用element-ui组件库
- C++/MFC-线程优先级
- JAVA_POI 操作Excel