1.3 Hive的安装(前提是:mysql和hadoop必须已经成功启动了)

在之前博客中我有记录安装JDK和Hadoop和Mysql的过程,如果还没有安装,请先进行安装配置好,对应的随笔我也提供了百度云下载连接。

安装JDK: https://www.cnblogs.com/wyh-study/p/12014368.html

安装Hadoop https://www.cnblogs.com/wyh-study/p/12043948.html

安装Mysql https://www.cnblogs.com/wyh-study/p/12044652.html

(注意:安装mysql的时候一定要确保已经执行 :

1.3.1 上传压缩包并解压

tar -zxvf apache-hive-1.2.1-bin.tar.gz

1.3.2 修改目录名称

mv apache-hive-1.2.1-bin hive-1.2.1

1.3.3 备份配置文件

cp hive-env.sh.template hive-env.sh

cp hive-default.xml.template hive-site.xml

1.3.4 修改配置hive的配置文件(在conf目录下)

修改hive-env,sh

加入三行内容(大家根据自己的情况来添加,每个人安装路径可能有所不同)

<! -- 先进入目录下  cd /usr/local/soft/hive-1.2.1/conf
HADOOP_HOME=/usr/local/soft/hadoop-2.7.6
JAVA_HOME=/usr/local/soft/jdk1.8.0_171
HIVE_HOME=/usr/local/soft/hive-1.2.1

修改hive-site.xml (找到对应的键对值进行修改,注意!!!是修改,而不是全部直接复制粘贴)

<!--数据存储位置就是我们在HDFS上看的目录-->
<property>
   <name>hive.metastore.warehouse.dir</name>
   <value>/user/hive/warehouse</value>
</property>

(注意:修改自己安装mysql的主机地址)
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://192.168.40.110:3306/hive?createDatabaseIfNotExist=true&amp;useUnicode=true&amp;characterEncoding=utf8&amp;useSSL=false</value>
</property>

(固定写法,mysql驱动类的位置)
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
</property>

(mysql的用户名)
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
</property>


(mysql的用户密码)
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>123456</value>
</property>


(你的hive安装目录的tmp目录)
<property>
<name>hive.querylog.location</name>
<value>/usr/local/soft/hive-1.2.1/tmp</value>
</property>


(同上)
<property>
<name>hive.exec.local.scratchdir</name>
<value>/usr/local/soft/hive-1.2.1/tmp</value>
</property>


(同上)
<property>
<name>hive.downloaded.resources.dir</name>
<value>/usr/local/soft/hive-1.2.1/tmp</value>
</property>

<!--指定这个的时候,为了启动metastore服务的时候不用指定端口-->
<!--hive --service metastore -p 9083 & | hive --service metastore-->
<property>
   <name>hive.metastore.uris</name>
   <value/>
   <description>thrift://master:9083</description>
</property>

修改core-site.xml 直接改,改完重启就行,为后面beeline连接做准备

注意:三个节点上的都要改。

<!--该参数表示可以通过httpfs接口hdfs的ip地址限制-->
<property>
<name>hadoop.proxyuser.hadoop.hosts</name>
<value>*</value>
</property>
<!--通过httpfs接口访问的用户获得的群组身份-->
<property>
<name>hadoop.proxyuser.hadoop.groups</name>
<value>*</value>
</property>

1.3.5 拷贝mysql驱动到$HIVE_HOME/lib目录下

cp /usr/local/soft/mysql-connector-java-5.1.49.jar ../lib/

1.3.6 将hadoop的jline-0.9.94.jar的jar替换成hive的版本。

cp /usr/local/soft/hive-1.2.1/lib/jline-2.12.jar /usr/local/soft/hadoop-2.7.6/share/hadoop/yarn/lib/

1.3.7 将hive的bin目录配置到环境变量中去

export HIVE_HOME=/usr/local/soft/hive-1.2.1
export PATH=.:$HIVE_HOME/bin

1.3.8 source命令让环境变量生效

1.3.9 拷贝到其他两个节点中去,因为可能我们会在其他的节点上当作客户端访问hive,注意,也需要配置环境变量,增加驱动jar包,将hadoop的jline-0.9.94.jar的jar替换成hive的版本

<! -- 先进入目录下  cd /usr/local/soft/
scp -r hive-1.2.1/ node1:`pwd`
scp -r hive-1.2.1/ node2:`pwd`
<! -- 先进入目录下 cd /usr/local/soft/ hadoop-2.7.6/etc/hadoop/
  scp core-site.xml node1:`pwd`
<! -- 环境变量也需要配置,这里就直接远程复制,配置完成后source一下  
scp /etc/profile node1:/etc/profile
scp /etc/profile node2:/etc/profile

1.3.10 启动

启动hadoop

start-all.sh

启动hive

hive --service metastore

nohup hive --service metastore >/dev/null &

hive

启动HiveServer2

hiveserver2

nohup hiveserver2 >/dev/null &

beeline -u jdbc:hive2://master:10000 -n root

1.4 Hive的三种交互方式

1)第一种交互方式

shell交互Hive,用命令hive启动一个hive的shell命令行,在命令行中输入sql或者命令来和Hive交互。

服务端启动metastore服务(后台启动):nohup hive --service metastore > /usr/local/soft/mylogs 2>&1 &
进入命令:hive
退出命令行:quit;

2)第二种交互方式

Hive启动为一个服务器,对外提供服务,其他机器可以通过客户端通过协议连接到服务器,来完成访问操作,这是生产环境用法最多的

服务端启动hiveserver2服务:
nohup hive --service metastore >/dev/null &
nohup hiveserver2 >/dev/null &

需要稍等一下,启动服务需要时间:
进入命令:1)先执行: beeline ,再执行: !connect jdbc:hive2://master:10000
       2)或者直接执行: beeline -u jdbc:hive2://master:10000 -n root
退出命令行:!exit

第三方连接工具 DBeaver (熊logo)。

3)第三种交互方式

使用 –e 参数来直接执行hql的语句

bin/hive -e "show databases;"

使用 –f 参数通过指定文本文件来执行hql的语句

特点:执行完sql后,回到linux命令行。

vim hive.sql

use myhive;
select * from test;
hive -f hive.sql

4)hive cli和beeline cli的区别

最新文章

  1. Unity中各类物理投射性能横向比较
  2. QPS计算方法
  3. 『设计前沿』14款精致的国外 iOS7 图标设计示例
  4. 如何禁止DELETE、PUT、OPTIONS、TRACE、HEAD等协议访问应用程序 .
  5. C#获取指定日期为一年中的第几周
  6. 用CAS操作实现Go标准库中的Once
  7. zoj 3686 A Simple Tree Problem (线段树)
  8. sh脚本异常,binsh^M bad interpreter No such file or directory
  9. scrapy 修改URL爬取起始位置
  10. VS2017报错 未能加载文件或程序集”Oracle.DataAccess, Version=2.122.1.0, Culture=neutral, PublicKeyToken=89b483f429c47342&quot;或它的某一个依赖项。试图加载格式不正确的程序
  11. 第三组 通信一班 030 OSPFv2、OSPFv3综合实验
  12. python: 文件的读写
  13. 加深关于Java中char类型的理解
  14. Statement、PreparedStatement、CallableStatement的区别
  15. 关于伪类“:pseudo-class”和伪元素“::pseudo-element”的常见应用
  16. LeetCode: Construct Binary Tree from Preorder and Inorder Traversal 解题报告
  17. git 查看暂存区
  18. 报表在IBM AIX系统下resin部署
  19. eclipse egit 更新未提交文件的方法
  20. Web App、Hybrid App、Native APP对比

热门文章

  1. Django学习——分组查询、图书管理系统项目、wsgi, uwsgi, cgi, fastcgi
  2. CSAPP 之 DataLab 详解
  3. navicat软件、 python操作MySQL
  4. GB/T 25000.51-2016 系统与软件工程、系统与软件质量要求和评价 第51部分
  5. 论文解读《Deep Attention-guided Graph Clustering with Dual Self-supervision》
  6. Windows环境下安装RabbitMQ
  7. 解决跨海高并发崩溃难题?so easy
  8. CabloyJS实现了一款基于X6的工作流可视化编辑器
  9. CabloyJS微信模块、企业微信模块已出齐
  10. 架构师必备:系统容量现状checklist