pentaho和spark-sql对接
2024-09-28 22:07:46
pentaho可以和hive做对接,所以和spark-sql做对接也是妥妥的。结果让人很失望了啊,我配置了很久都搞不定,最后脑袋突然灵机一动打通了。
1:替换pentaho自带的hive驱动。
路径 :biserver-ce\tomcat\webapps\pentaho\WEB-INF\lib
删除:pentaho-hadoop-hive-jdbc-shim-5.3.0.0-213.jar
添加:spark-assembly-1.3.1-hadoop2.6.0.jar
2: 添加数据源
测试下,OK
最新文章
- iOS开发中设置UITextField的占位文字的颜色,和光标的颜色
- 【CodeForces 261B】Maxim and Restaurant(DP,期望)
- (转)Rest介绍
- centos7 挂载数据盘
- 解读SQL 内存数据库的细节
- AMQ学习笔记 - 09. Spring-JmsTemplate之接收
- RAID0_RAID1_RAID10_RAID5各需几块盘才可组建
- Github官方app分析——用户身份验证模块
- Dubbo(二) 认识Zookeeper
- ThoughtWorks University之旅 —— 印度游记
- WebClient.DownLoadString报错:连接被意外关闭
- Gin框架源码解析
- c++_work
- Python学习第三篇——逻辑判定
- 表单验证,添加动态class
- MySQL视图-(视图创建,修改,删除,查看,更新数据)
- vs2013 使用vs2017的localdb
- html:模板
- NetCore偶尔有用篇:NetCore项目发布为Nuget包
- vba调用c#dll