scala spark 调用hivecontext
2024-09-30 15:16:33
import org.apache.spark.rdd.RDD
def save(data: RDD[ModelReplay], modelKey: String, dt: String): Unit = { val tableName = s"tmp.model_replay_${modelKey}_di" val hiveContext = new org.apache.spark.sql.hive.HiveContext(data.sparkContext) import hiveContext.implicits._
data.toDF().registerTempTable("result_table") val sql_create_table = s"create table if not exists ${tableName}( " +
s"order_id bigint ," +
s"pctr double " +
s" )partitioned by (dt string comment '') stored as orc" val sql_insert = s"insert into ${tableName} partition(dt='${dt}') select order_id,pre from result_table" println("sql_create_table="+sql_create_table)
// 创建表
hiveContext.sql(sql_create_table) println("sql_insert="+sql_insert)
// 插入数据
hiveContext.sql(sql_insert) }
最新文章
- lua 例子
- ios手势
- Loadrunner11.0 录制手机App脚本的方法
- ListView在列表的头部和底部添加布局——addHeaderView,addFooterView
- Red hat Linux 安装Node.js 源码安装
- Altium Designer 多通道设计
- hdu 2824 The Euler function(欧拉函数)
- BZOJ 1008 越狱
- cf702C Cellular Network
- 关于 keybd_event (vb篇)
- centos7编译安装MySQL5.7.9
- linux下I2C驱动
- Canvas rontate(旋转) 使用误区
- NYoj 部分和问题(深搜经典)
- Jenkins+Git配置
- Linux Android 多点触摸协议 原文出自【比特网】,转载请保留原文链接:http://soft.chinabyte.com/os/71/12306571.shtml
- LeetCode之“动态规划”:Word Break &;&; Word Break II
- eclipse发布到tomcat
- 文件访问权限:更改用户ID
- Qgis练手