Hive属于Hadoop生态圈,所以Hive必须运行在Hadoop上
将安装包上传到/opt/install目录下
[root@hadoop install]# tar -zxf apache-hive-3.1.2-bin.tar.gz -C …/soft/
[root@hadoop soft]# mv apache-hive-3.1.2-bin/ hive312
添加Hive环境变量
# HIVE_HOME
export HIVE_HOME=/opt/soft/hive312
export PATH=$PATH:$HIVE_HOME/bin
在/opt/soft/hive312/conf目录下创建hive-site.xml文件
[root@hadoop conf]# touch hive-site.xml
hive.metastore.warehouse.dir /opt/soft/hive312/warehouse hive.metastore.db.type mysql javax.jdo.option.ConnectionURL jdbc:mysql://192.168.95.130:3306/hive150?createDatabaseIfNotExist=true javax.jdo.option.ConnectionDriverName com.mysql.cj.jdbc.Driver javax.jdo.option.ConnectionUserName root javax.jdo.option.ConnectionPassword root hive.metastore.schema.verification false 关闭schema验证 hive.cli.print.current.db true 提示当前数据库名 hive.cli.print.header true 查询输出时带列名一起输出
注意
其中这里改成自己数据库的服务器
数据库的驱动名 这里使用的是mysql8
用户名和密码需要改成使用数据库的用户名和密码
找到本机Maven工程的mysql的jar包放入/opt/soft/hive312/lib目录下
[root@hadoop conf]# source /etc/profile
[root@hadoop conf]# start-all.sh
[root@hadoop conf]# schematool -dbType mysql -initSchema
[root@hadoop conf]# hive
并在mysql服务器上可以看到