前言
部署hive需要提前部署好以下环境:
- mysql (安装在10.57.22.113)
- HDFS (hadoop-2.7.7)
一、搭建模式
Hive中搭建分如下3中方式,三种方式归根到底就是元数据的存储位置不一样
1 | a)内嵌Derby方式 :运行hive会在当前目录生成一个derby文件和一个metastore_db目录。这种存储方式的弊端是在同一个目录下同时只能有一个hive客户端能使用数据库。 |
二、部署Hive
A)下载地址:https://archive.apache.org/dist/hive/hive-2.3.4/apache-hive-2.3.4-bin.tar.gz
B)解压包:tar -xvf apache-hive-2.3.4-bin.tar.gz
C)修改文件夹名称:mv apache-hive-2.3.4-bin hive-2.3.4
D)配置环境变量, 修改.bashrc
文件
vi ~/.bashrc
1 | export HIVE_HOME=/data01/bigdata/hive-2.3.4 |
source ~/.bashrc
三、配置修改
A)修改hive-site.xml配置
首先复制一份配置文件cp hive-default.xml.template hive-site.xml
,修改如下配置:
1 | <!-- 指定HDFS中的hive仓库地址 --> |
B) 修改hive-env.sh变量
首先复制一份配置文件cp hive-env.sh.template hive-env.sh
, 新增如下配置:
1 | export HADOOP_HOME=/data01/bigdata/hive-2.3.4 |
四、其他配置
A) 新建warehouse目录
1 | mkdir /data01/bigdata/hive-2.3.4/warehouse |
B)上传mysql-connector-java-5.1.40.jar
到指定目录$HADOOP_HOME/lib
1 | scp ~/Downloads/mysql-connector-java-5.1.40.jar admin@10.57.22.119:/data01/bigdata/hive-2.3.4/lib |
C) 创建存储元数据的mysql库
1 | mysql -h 10.57.22.113 -u root -p |
D) 初始化schema(/data01/bigdata/hive-2.3.4/bin/schematool
)
1 | schematool -dbType mysql -initSchema |
进入mysql查看初始化schema后结果,如下:
1 | mysql> use hive_remote; |
五、启动hive server
1 | 启动 hive server |
进程查看,是否有RunJar
进程(有即服务已启动):
1 | [admin@tdcdh119 warehouse]$ jps |
六、启动hive client
1 | hive |
验证hive
1 | hive> create databases hive_test; |
七、参考文档
1 | https://cwiki.apache.org/confluence/display/Hive/GettingStarted#GettingStarted-InstallingHivefromaStableRelease |